أصدر معهد مستقبل الحياة تقريرًا جديدًا يكشف عن فجوات خطيرة في ممارسات السلامة لدى شركات الذكاء الاصطناعي الرائدة. يوضح التقرير أن أبرز المختبرات العالمية ما زالت بعيدة عن معايير الحوكمة والشفافية الدولية الناشئة، رغم سرعتها الفائقة في تطوير نماذج الذكاء الاصطناعي. يذكر التقرير أن كبرى الشركات المطورة للنماذج مثل OpenAI وAnthropic وMeta وxAI تقود السباق نحو أنظمة فائقة الذكاء ولكنها تفتقر إلى إطار واضح للسيطرة على سلوك النماذج أو التحقق من سلامتها. كما يشير إلى أن هذا التوجه قد يعرض المجتمع لمخاطر من نشر معلومات مضللة إلى سلوكيات أكثر خطورة.
أبرز النتائج والآثار
تشير التقييمات إلى أن المختبرات الكبرى لم تحقق الحد الأدنى من معايير الشفافية المطلوبة، إذ تقدم القليل من المعلومات حول كيفية اختبار التحيزات، أو التعامل مع حوادث السلامة، أو خطط السيطرة على سلوك النماذج المتقدمة مستقبلًا. كما أن البيانات المتعلقة بنُظم الإبلاغ عن الانحرافات أو آليات المراجعة المستقلة ليست متاحة بشكل كاف. يضيف التقرير أن المخاطر تنتقل من نشر معلومات مضللة إلى احتمال اعتماد نماذج ذات سلوكيات قد تكون ضارة.
في المقابل، أشاد التقرير بمختبرات أصغر في أوروبا وآسيا لتوثيقها إجراءات السلامة بشكل واضح، لكنها تبقى دون المستويات التي تطمح إليها المعايير التنظيمية الدولية. وتظهر النتائج أن هذه المؤسسات تبذل جهود ملحوظة لكنها ليست كافية لضمان الحوكمة الشفافة أو وجود آليات كافية للسيطرة على المخاطر. كما يبرز التقرير أن الاستمرار في تعزيز الشفافية والتوثيق المستقل ضروري لتقوية الثقة العامة.
ردود الفعل والتوصيات
أثار التقرير ردود فعل متباينة في الصناعة، فبينما أكدت Google DeepMind التزامها بتطوير آليات السلامة بالتوازي مع نماذجها، عبّرت شركة xAI عن رفضها للتقرير ووصفتها بأنه ادعاءات إعلامية قديمة. كما أشارت التقييمات إلى أن الشركات الكبرى بحاجة إلى مراجعة أولوياتها وتبني إصلاحات جوهرية في الحوكمة والشفافية. وتدفع التوصيات إلى تعزيز الشفافية والتوثيق المستقل لاختبارات التحيزات وحوادث السلامة وخطط التحكم بالسلوك المستقبلي للنماذج.








