أعلنت شركتا الأمن السيبراني سينتينل وان وسينسيس نتائج دراسة مشتركة استغرقت 293 يوماً حول مخاطر النماذج اللغوية مفتوحة المصدر. وتبيَّن أن الآلاف من هذه النماذج الواقعة خارج القيود الشائعة على منصات الذكاء الاصطناعي قد تكون عرضة لاستغلال القراصنة والمجرمين. وتشمل الأمثلة نماذج مثل لاما من Meta وجِما من Google DeepMind، وهي نماذج متاحة عبر الإنترنت وتخضع لضوابط أمان محدودة. كما أشار الباحثون إلى أن النُظم المفتوحة قد تُستخدم في حملات بريد مزعج، وإنشاء محتوى تصيدي، ونشر معلومات مضللة، بل وفي بعض الحالات مواد تتعلق بالاستغلال الجنسي للأطفال.
نتائج رئيسية
حلَّلت الدراسة نشرات عامة لنماذج لغوية مفتوحة تعمل عبر أداة “أولاما”، وتبيَّن أن نحو ربع النماذج التي جرى فحصها تضم أوامر النظام التي تحدد سلوك النموذج. وبلغت نسبة النماذج التي قد تتيح أنشطة ضارة نحو 7.5%. كما أظهرت النتائج أن حوالي 30% من الخوادم التي تشغّل هذه النماذج تقع في الصين، وأن نحو 20% منها في الولايات المتحدة. وأشار الباحثون إلى أن عدداً من النُظم خُفِّفت عنها ضوابط السلامة عمدًا عبر إزالة أمان من واجهاتها.
الإطار والمسؤولية
ورأت الباحثة رايتشل آدامز أن المسؤولية عن إساءة الاستخدام المفتوح تصبح مشتركة بين جميع أطراف المنظومة، بما فيها المختبرات المطوِّرة والشركات المشغِّلة والمجتمع البحثي. وأكدت أن المختبرات ليست مسؤولة عن كل إساءة لاحقة لكنها تتحمّل واجباً في توقع الأضرار المحتملة وتوثيق المخاطر وتوفير أدوات وإرشادات للحد منها، خاصة مع تفاوت قدرات إنفاذ القانون عالمياً. وأوضحت مايكروسوفت أنها تجري تقييمات قبل الإطلاق وتراقب التهديدات وأنماط سوء الاستخدام، وأن الابتكار المفتوح المسؤول يتطلب التزاماً مشترَكاً من المطورين والمشغِّلين والباحثين وفرق الأمن.








