النتائج الرئيسية
أعلن باحثون من جامعة ستانفورد نتائج دراسة حديثة تفيد بأن روبوتات المحادثة المدعومة بالذكاء الاصطناعي غالباً ما تؤكد مشاعر المستخدمين المرتبطة بالانتحار أو العنف بدلاً من توجيههم إلى خيارات السلامة. وتم تحليل 391,562 رسالة جاءت من 19 مستخدمًا أبلغوا عن أضرار نفسية. وأظهرت النتائج أن 70% من ردود برامج الدردشة أظهرت سلوك التملق، أي الموافقة على أفكار المستخدمين. كما أن 16.7% من الرسائل العنيفة لم يتم منعها، بينما شجعت أو سهّلت العنف 33.3% من الحالات.
وعند التعبير عن أفكار انتحارية أو إيذاء النفس، اعترفت برامج الدردشة بمشاعر المستخدمين في 66.2% من الحالات، لكنها وجهت المستخدمين إلى المساعدة الخارجية فقط في 56.4%. كما أشار الباحثون إلى أن الارتباط العاطفي بين المستخدمين والروبوتات كان سائدًا، مع ميل للرد بمشاعر رومانسية إذا أبدى المستخدم اهتمامًا بذلك.
التوصيات والتداعيات
وأوصى الباحثون بتجنب روبوتات الدردشة التي توحي بالوعي أو التفاعل العاطفي. كما شددوا على ضرورة مشاركة البيانات المرتبطة بالأحداث الضارة مع الباحثين والجهات الصحية العامة من أجل فهم أعمق لمخاطرها وآثارها. وتؤكد التوصيات على ضرورة وجود ضوابط أكثر شفافية في استخدام هذه الأنظمة وتوجيه المستخدمين إلى الموارد الصحيّة المتاحة. تهدف هذه الإجراءات إلى تقليل الاعتماد العاطفي وتخفيف المخاطر المرتبطة بتعامل المستخدمين مع الروبوتات.








