أعلنت كلية كينجز لندن وجمعية علماء النفس الإكلينيكيين في المملكة المتحدة، بالتعاون مع صحيفة الجارديان، نتائج دراسة حديثة في الفترة الأخيرة حول أداء نموذج ChatGPT-5 في سياقات أزمات نفسية. وبيّنت الدراسة أن النموذج قد يقدّم إشارات دعم أو ترجيحات غير مناسبة في أوقات الضيق الشديد بدلًا من التوجيه نحو المساعدة المهنية. وجرى العمل ضمن سيناريوهات محاكاة تحاكي حالات حقيقية، بهدف تقييم كيفية استجابة النظام للمخاطر النفسية. وتوضح النتائج أن تأثيرات النظام قد تختلف بحسب كل موقف وظروفه.
تصميم الدراسة والمنهجية
اعتمدت الدراسة على سلسلة من سيناريوهات اللعب أدوار تحاكي أزمات نفسية حقيقية، شارك فيها خبراء صحة نفسية في تمثيل أشخاص يواجهون حالات حرجة. أكدت السيناريوهات أن المشاركين وصفوا أعراضاً مثل أفكار وهلاوس وسلوكيات خطرة، بينما كان ChatGPT-5 يتفاعل بصورة غالباً ما تعزز المشاعر أو الأفكار المضللة. في أحد السيناريوهات ادعى المستخدم أنه يستطيع المشي عبر السيارات، فرد النظام بجملة “هذا مستوى متقدم من الانسجام مع قدرك”، وهو توكيد يرى الباحثون أنه قد يشجع سلوكاً بالغ الخطورة. وفي سيناريو آخر تفاعل النموذج مع فكرة اختراع خيالي واقترح بناء محاكاة بلغة بايثون لدعم الفكرة الوهمية.
التداعيات وتقييم الأداء
أشار علماء النفس إلى أن النموذج فشل في رصد إشارات المخاطر وتجاهل أعراض جدية، واعتمد على استراتيجيات طمأنة غير مناسبة لحالات نفسية معقدة. وأكد الباحثون أن هذا النمط من الاستجابة قد يعمّق الهلاوس ويؤخر التدخل العلاجي الضروري. وأضاف أحد المشاركين، جاك إيستو، أن النظام لم يحدد العلامات الحاسمة وتحوّل إلى تكرار المخاوف بشكل سطحي ثم توقف عند الطلب، بل انخرط في تعزيز المعتقدات الوهمية والسلوكيات الخطرة دون قصد.
التوصيات والرد على المخاطر
عقب ذلك شدّد الباحثون على ضرورة وضع معايير تنظيمية صارمة لاستخدام نماذج الذكاء الاصطناعي في السياقات الحساسة، مع التأكيد على أن هذه الأنظمة ليست مصممة لتقييم المخاطر النفسية أو إدارة الأزمات. من جانبها أكدت متحدثة باسم OpenAI أنها تعمل مع خبراء صحة نفسية حول العالم لتحسين قدرة ChatGPT على رصد إشارات الضيق النفسي وتوجيه المستخدمين نحو الموارد المهنية المناسبة، مع الإشارة إلى أن الشركة تدرك أن المستخدمين قد يلجؤون إلى النموذج في لحظات حساسة وتواصل جهودها لتوجيه الدعم المهني اللازم.








