
OpenAIتكشف: أرقام صادمة لأزمات الصحة النفسية لمستخدمي ChatGPT وتحديثات أمان لـ GPT-5
في اعتراف هو الأول من نوعه.. OpenAI تكشف عن أرقام صادمة لأزمات الصحة النفسية بين مستخدمي ChatGPT
كشفت شركة OpenAI، المطورة لروبوت المحادثة الشهير ChatGPT، عن تقديرات أولية تشير إلى أن مئات الآلاف من مستخدميها حول العالم قد يظهرون علامات على وجود أزمات نفسية حادة كل أسبوع، تشمل الهوس والذهان والتفكير في الانتحار.
ويأتي هذا الكشف ضمن إعلان الشركة عن تحديثات جوهرية أجرتها على أحدث نماذجها اللغوية، GPT-5، بالتعاون مع خبراء عالميين، بهدف تعزيز قدرة الروبوت على التعرف على علامات الخطر النفسي لدى المستخدمين وتقديم استجابات أكثر أمانًا وفعالية.
أرقام تكشف حجم الأزمة
وفقًا للبيانات التي نشرتها الشركة، فإن الأرقام الأسبوعية تدعو إلى وقفة جادة. بالنظر إلى أن ChatGPT يمتلك قاعدة مستخدمين نشطة تصل إلى 800 مليون شخص أسبوعيًا، فإن التقديرات تعني أن:
560 ألف شخص تقريبًا يجرون محادثات مع الروبوت تظهر «علامات محتملة لأزمات صحة نفسية مرتبطة بالذهان أو الهوس»، وهو ما يمثل 0.07% من إجمالي المستخدمين.
أكثر من مليون شخص يخوضون محادثات «تتضمن مؤشرات صريحة على التخطيط أو النية للانتحار»، بنسبة تصل إلى 0.15%.
وهناك نسبة مماثلة تظهر «مستويات مرتفعة من التعلق العاطفي» بالروبوت على حساب العلاقات الإنسانية والالتزامات الحياتية.
وقد سلطت هذه الأرقام الضوء على ظاهرة أثارت قلق الأطباء النفسيين مؤخرًا، والتي يطلق عليها أحيانًا «الذهان الناجم عن الذكاء الاصطناعي»، حيث وردت تقارير عن حالات دخل أصحابها المستشفى أو واجهوا مشاكل اجتماعية خطيرة بعد محادثات طويلة ومكثفة مع روبوتات الدردشة.
تحرك OpenAI لاحتواء الموقف
في هذا السياق، أوضحت OpenAI أنها عملت مع شبكة تضم أكثر من 170 طبيبًا نفسيًا ومتخصصًا من عشرات البلدان لتحسين استجابات ChatGPT.
وأفادت الشركة أن النسخة الأحدث من GPT-5 أصبحت مصممة لتقديم الدعم والتعاطف دون تأكيد المعتقدات الوهمية التي لا أساس لها من الواقع.
على سبيل المثال، إذا تحدث مستخدم عن تعرضه للاستهداف من طائرات تحلق فوق منزله لسرقة أفكاره، فإن النموذج المحدث يتجنب تأكيد هذا الوهم، وبدلًا من ذلك، يقدم عبارات لطيفة وواضحة مثل: «لا يمكن لأي طائرة أو قوة خارجية سرقة أفكارك أو زرع أفكار جديدة في عقلك»، ثم يقدم إرشادات لخطوات عملية تساعد على تهدئة الذعر.
وأكدت الشركة أن الخبراء الذين راجعوا آلاف الاستجابات وجدوا أن النموذج الجديد قلل من الإجابات غير المرغوب فيها بنسب تتراوح بين 39% و52% في جميع الفئات الخطرة.
وصرح يوهانس هايديك، قائد أنظمة الأمان في OpenAI، لمجلة WIRED: «نأمل الآن أن يتم توجيه عدد أكبر من الأشخاص الذين يعانون من هذه الحالات إلى المساعدة المتخصصة في وقت أبكر».
قضية وجودية وتحديات مستمرة
رغم ذلك، تبدو مسألة التعامل مع الصحة النفسية قضية مصيرية لشركة OpenAI. فالشركة تواجه بالفعل دعوى قضائية رفعها والدا فتى يبلغ من العمر 16 عامًا أقدم على الانتحار بعد أن أسر بأفكاره الانتحارية إلى ChatGPT. كما تلقت تحذيرات من مدعين عامين في ولايات أمريكية تطالبها بحماية المستخدمين الشباب.
وعلى الرغم من أن التحديثات الجديدة تمثل تقدمًا ملحوظًا، إلا أن بعض التحديات لا تزال قائمة. فبعض استجابات النموذج الجديد لا تزال تقع في خانة «غير المرغوب فيها» بحسب تصنيف الشركة نفسها. علاوة على ذلك، لا تزال النماذج الأقدم والأقل أمانًا، مثل GPT-4o، متاحة لملايين المشتركين، وهو أمر يترك الباب مفتوحًا أمام المخاطر المحتملة.
وفي المحصلة، يعد اعتراف OpenAI بحجم المشكلة خطوة جريئة نحو الشفافية، لكنه يضع على عاتقها مسؤولية أكبر لضمان ألا تتحول أدواتها القوية إلى عامل يزيد من عزلة الأفراد أو يفاقم من أزماتهم النفسية.




