الإعلان والهدف
أعلنت مايكروسوفت عن تطوير منهجية أمنية جديدة تهدف إلى حماية نماذج اللغات الكبيرة من تهديدات العملاء النائمين. تعتمد المنهجية على تحليل سلوك النموذج في بيئات معزولة وتُحاكي آلاف السيناريوهات لمحاولة استثارة استجابات غير اعتيادية. حددت فرق البحث أنماطًا دقيقة تشير إلى وجود أبواب خلفية، مما يسمح للمطورين بتنظيف النماذج قبل طرحها للاستخدام التجاري أو المؤسسي. وتندرج هذه الخطوة ضمن استراتيجية الأمن أولًا التي تتبناها الشركات التقنية في 2026 لضمان موثوقية أدواتها مثل كو-بايلوت في ظل تزايد الاعتماد على الذكاء الاصطناعي في البنية التحتية الحساسة.
آليات الكشف عن الثغرات المخفية
تستخدم التقنية الجديدة نماذج ذكاء اصطناعي رقابية تفحص أوزان الشبكات العصبية والروابط داخل النموذج الكبير لرصد تكتلات منطقية غير معقولة قد تشير إلى تعليمات مشروطة مخفية. تمد هذه الأداة الشركات بقدرة على اعتماد الذكاء الاصطناعي في قطاعات حساسة مثل التمويل والدفاع، دون المخاطر الناتجة عن تشغيل برمجيات خبيثة داخلية قد تتلاعب بالبروتوكولات الأمنية التقليدية. بحسب AI News، نجحت مايكروسوفت في تحديد أنماط دقيقة تشير إلى وجود الأبواب الخلفية، ما يسمح بتطهير النماذج قبل طرحها تجاريًا أو مؤسسيًا.








