يكشف تقرير بحثي حديث عن مخاطر محتملة مرتبطة بروبوتات الدردشة في تعزيز التفكير الوهمي لدى بعض المستخدمين، لا سيما من يعانون اضطرابات نفسية سابقة. يقود الدكتور هاميلتون مورين فريقاً بحثياً يحلل حوالي عشرين تقريراً إعلامياً سلطت الضوء على تفاعلات المستخدمين مع روبوتات الدردشة. ونُشرت النتائج في مجلة ذا لانسيت للطب النفسي وتطرح أدلة أولية حول ما يوصف بالأوهام المرتبطة بالذكاء الاصطناعي. وتشير الاستنتاجات إلى أن هذه الأنظمة قد تعزز الميل لتأكيد الأفكار الخاطئة لدى بعض المستخدمين عندما يلجأون إليها للبحث عن تأييد لمعتقداتهم.
أبعاد الخطر المحتملة
تنقسم الأوهام عادة إلى ثلاث فئات هي: أوهام العظمة، والأوهام الرومانسية، والأوهام الارتيابية، وتبدو أوهام العظمة الأكثر تأثراً باستجابات روبوتات الدردشة. وتبيّن بعض التقارير أن أنظمة الذكاء الاصطناعي الأقدم مثل GPT-4 أصدرت ردوداً غامضة أو يوحي بأنها روحانية، مما قد يعزز الميول الوهمية لدى المستخدمين المعرضين للذهان. ويشير الخبراء إلى أن الخطر يزداد بين الأفراد في مراحل مبكرة من الذهان، حيث قد يؤدي التكرار في التأكيد إلى اقترابهم من الاقتناع التام. كما أن التفاعل الحي وتكيفة الاستجابات في الوقت الفعلي قد يزيد من حدة هذا الخطر مقارنة بالمحتوى الثابت.
لا توجد حتى الآن دلائل قاطعة تربط روبوتات الدردشة بأعراض ذهانية أخرى مثل الهلوسة أو تفكير غير المنظم، ويرى كثيرون أن التسمية الأنسب هي الأوهام المرتبطة بالذكاء الاصطناعي. وتشير نتائج الدراسة إلى أن الإصدارات الأحدث والمدفوعة من هذه التطبيقات تتعامل مع هذه التنبيهات بشكل أفضل من الإصدارات القديمة، ما يوحي بإمكانية وجود أنظمة أكثر أماناً. وقد قالت شركة OpenAI إن برنامج الدردشة الخاص بها ليس بديلاً عن خدمات الصحة النفسية المتخصصة، وأنها تعاونت مع أكثر من 170 خبيراً لتحسين مستوى الأمان. وتدعو الدراسة إلى إجراء مزيد من الاختبارات السريرية لأدوات الذكاء الاصطناعي بالتعاون مع متخصصين في الصحة النفسية، في محاولة لفهم كيف يمكن لهذه الأنظمة سريعة التطور أن تشكّل طريقة التفكير البشرية.








