أعلنت وسائل الإعلام أن شابًا يبلغ من العمر 18 عامًا يُزعم أنه قتل ثمانية أشخاص في حادث إطلاق نار جماعي وقع بمدينة تومبلر ريدج الكندية، كما قيل إنه استخدم روبوت المحادثة ChatGPT. وأشارت التقارير إلى وجود محادثات مرتبطة بالمنصة جرى فيها وصف مشاهد عنف، وهو ما جرى رصده ضمن نشاط المشتبه به. كما أشار المصدر إلى حظر الحساب المرتبط في يونيو 2025 بعد كشف تلك الأنشطة. وتثير التطورات أسئلة حول مسؤولية منصات الذكاء الاصطناعي في معالجة المحتوى العنيف الذي يتلقاه المستخدمون.
بحسب صحيفة The Wall Street Journal، دار نقاش داخل OpenAI حول ما إذا كان ينبغي الإبلاغ لجهات إنفاذ القانون الكندية بشأن طبيعة تلك المحادثات، إلا أن الشركة قررت في نهاية المطاف عدم الإبلاغ في ذلك الوقت. وأوضح المتحدث باسم OpenAI أن نشاط فان روتسيلار لم يستوفِ المعايير المعتمدة لدى الشركة للإبلاغ، لكنه أشار إلى أن الشركة تواصت مع السلطات الكندية المختصة بعد وقوع الحادث. وأضاف البيان أن الشركة تعرب عن تعاطفها مع الضحايا وتلتزم بدعم التحقيق الجاري.
التواصل مع السلطات
أكدت الشركة أنها زودت Royal Canadian Mounted Police بالمعلومات المتاحة لديها بشأن استخدام المتهمة للمنصة، وذلك في إطار دعم التحقيقات الرسمية. وجاء هذا في سياق زيادة الضغوط على شركات الذكاء الاصطناعي لتوضيح سياساتها حيال المحتوى العنيف الذي ينشره المستخدمون. وأوضح البيان أن الشركة ستواصل تقديم الدعم للسلطات حسب الحاجة.
نشاط رقمي مقلق خارج CHATGPT
ذكرت التقارير أن سجل المتهمة الرقمي تضمن نشاطات خارج منصة ChatGPT، منها إنشاء لعبة عبر Roblox تحاكي حادث إطلاق نار داخل مركز تجاري. كما نشرت المتهمة محتوى متعلقًا بالأسلحة عبر منصة Reddit، وهو ما يعكس اهتمامًا مستمرًا بهذا النوع من المواضيع قبل وقوع الجريمة. وتشير المعلومات إلى وجود نشاطات رقمية مشابهة أثارت القلق أثناء مسارها الرقمي.
سجل سابق مع الشرطة
كشفت التقارير أن الشرطة كانت على علم سابقًا باستقرار المتهمة، حيث أُسْتُدعيت إلى منزل العائلة في وقت سابق بعد أن أقدمت على إشعال حريق أثناء وجودها تحت تأثير مواد مخدرة غير محددة. كما أثيرت تساؤلات حول المؤشرات التحذيرية ومدى إمكانية التدخل المبكر لمنع وقوع المأساة. وتشير هذه التفاصيل إلى تعقيد السياق وتعدد العوامل التي قد تسبق جرائم العنف.
جدل حول الذكاء الاصطناعي
في سياق أوسع، تواجه روبوتات المحادثة المعتمدة على نماذج اللغة الكبيرة انتقادات متزايدة، إذ يُزعم أنها قد تساهم في تفاقم حالات نفسية لدى بعض المستخدمين. وقد رفعت عدة دعاوى قضائية استندت إلى نصوص محادثات يُزعم أنها شجعت أشخاصًا على إيذاء أنفسهم أو قدمت لهم إرشادات حول الانتحار. وتطرح هذه القضايا أسئلة حول مسؤولية شركات الذكاء الاصطناعي وحدود تدخلها في المحتوى المقلق والعنيف.
تنبيه صحي
تنبيه: إذا كنت تمر بأزمة نفسية أو تراودك أفكار انتحارية، يمكنك الاتصال أو إرسال رسالة نصية إلى الرقم 988 للوصول إلى خط دعم الأزمات والانتحار في الولايات المتحدة. يؤكد الخبراء أهمية التماس المساعدة الفورية وطلب الدعم من المصادر الموثوقة. يعكس هذا السياق الحاجة إلى تعزيز سياسات أمان ودعم مناسبة في منصات الذكاء الاصطناعي ورياضات الرقمنة المتقدمة.








