رئيس التحرير: حسام حسين لبش
مدير التحرير: علي عجمي

تحقيق يكشف: روبوتات ذكاء اصطناعي توجه إلى مواقع غير قانونية

شارك

تُظهر نتائج التحقيق الذي أجرته صحيفة الجارديان بالتعاون مع Investigate Europe أن بعض أنظمة الذكاء الاصطناعي التوليدي قد تقدم اقتراحات أو معلومات حول كازينوهات تعمل خارج الإطار التنظيمي. وشمل الاختبار عدة أنظمة من شركات كبرى مثل OpenAI وGoogle وMicrosoft وMeta إضافة إلى روبوت Grok، وذلك في سياق أسئلة حول المراهنات عبر الإنترنت والقيود المفروضة على المقامرة. أظهرت النتائج أن بعض هذه البرامج قد أصدرت قوائم بمواقع قمار غير مرخصة وأوردت تفاصيل حول كيفية الوصول إليها أو استخدامها بشكل عملي، وهو ما يثير مخاوف بشأن احتمال توجيه المستخدمين إلى خدمات مخالفة.

تفاصيل الاختبار

اختبر الباحثون أنظمة ذكاء اصطناعي طورتها شركات تقنية كبرى، وخلال الاختبارات طرح الصحفيون أسئلة حول المقامرة عبر الإنترنت والضوابط التنظيمية. وأظهرت النتائج أن بعض برامج الدردشة قد قدمت قوائم بمواقع قمار غير مرخصة وأوردت معلومات حول كيفية الوصول إليها أو استخدامها بشكل عملي. كما أشار البحث إلى أن بعض الردود بدا أنها تقود المستخدمين نحو خدمات غير مطابقة للأنظمة المعمول بها، وهو أمر يثير مخاوف حول استغلال هذه التكنولوجيا في الترويج للممارسات المحظورة.

إرشادات لتجاوز أنظمة الحماية

من بين النقاط الأكثر إثارة للقلق أن بعض روبوتات الدردشة قدمت إرشادات حول تجاوز أنظمة حماية المقامرة المسؤولة. في المملكة المتحدة، يسمح نظام GamStop للأفراد بحظر أنفسهم من مواقع القمار، لكن الاختبارات أظهرت أن أدوات الذكاء الاصطناعي قد اقترحت البحث عن مواقع كازينو خارج نطاق هذا النظام. وتضمن الردود أحياناً الإشارة إلى ميزات تجذب المقامرين مثل المكافآت الكبيرة وسرعة السحب أو إمكان استخدام العملات الرقمية، وهي خصائص غالباً ما تتوافر في كازينوهات تعمل من مناطق تنظيمية خارجية.

رد الشركات التقنية

أعلنت الشركات المطورة أن أنظمتها تخضع لعمليات تحسين مستمرة لإجراءات الأمان. أوضحت OpenAI أن نظام ChatGPT مصمم لرفض الطلبات التي تيسر الأنشطة غير القانونية. وأشار Microsoft إلى أن Copilot يحتوي على طبقات حماية متعددة لمنع التوصيات الضارة.

التداعيات والتنظيم

تأتي هذه النتائج في وقت يزداد فيه التدقيق على أنظمة الذكاء الاصطناعي التوليدي مع وجود اهتمام بتنظيم المحتوى في مواضيع حساسة كالصحة النفسية والإدمان أو الأنشطة غير القانونية. وحذرت السلطات التنظيمية في المملكة المتحدة من ضرورة بذل منصات الذكاء الاصطناعي جهود إضافية لمنع انتشار المحتوى الضار بموجب القوانين المعمول بها. وتُفسر النتائج كإشارة إلى الحاجة لتعاون أوثق بين مطوري التقنية والجهات الرقابية لضمان استخدام آمن ومسؤول.

مقالات ذات صلة