رئيس التحرير: حسام حسين لبش
مدير التحرير: علي عجمي

مايكروسوفت تكشف تقنيات استغلال خبيثة تستهدف مساعدى الذكاء الاصطناعى

شارك

تعلن شركة مايكروسوفت اليوم عن اكتشاف مجموعة من التقنيات المعقدة التي يستخدمها القراصنة لخداع أنظمة الذكاء الاصطناعي. وتوجه هذه الأساليب المهاجمين لاستغلال الثغرات في بروتوكولات الأمان وتوجيه المساعد الذكي لتنفيذ أوامر خبيثة تسفر عن تسرب بيانات حساسة. وتبرز النتائج كاشفة عن ثغرات أساسية في نماذج الذكاء الاصطناعي التوليدي التي أصبحت جزءًا حيويًا من بيئة العمل المؤسسية. وتؤكد الدراسات أن هذه التهديدات تتطلب تعزيز دفاعات ديناميكية تتطور مع تطور أساليب الهجوم.

التلاعب بالنماذج اللغوية

ووفقًا لتقرير شركة مايكروسوفت، وثّقت الشركة عدة هجمات ناجحة تمكن فيها المهاجمون من التلاعب بالنماذج اللغوية لاستخراج معلومات سرية تخص العملاء. وتشير إلى أن الهجمات تعتمد على إساءة استخدام الأوامر النصية لتوجيه المساعد الذكي لتجاوز بروتوكولات الأمان وتنفيذ أوامر خبيثة. وتؤكد مايكروسوفت أنها تعمل حاليًا على تطوير آليات دفاعية جديدة قادرة على تحليل الأوامر النصية فورًا لمنع محاولات التلاعب قبل وقوعها.

مخاطر الهندسة الاجتماعية الذكية

تستغل هذه الهجمات قدرة الذكاء الاصطناعي على فهم اللغة الطبيعية لتحويله إلى أداة اختراق داخلية بدلًا من أن يكون مساعدًا آمنًا. وتعكس جهود الصناعة سعيها لبناء جدران حماية ذكية تقرأ نوايا المستخدمين وتردع الهجمات المعقدة لحظيًا. وتبرز أهمية تطوير إجراءات دفاعية ديناميكية تراعي تطور أساليب الاستغلال والتهديدات للوصول إلى بيئة آمنة وموثوقة. وتتطلب المؤسسات اعتماد أساليب استشعار مبكّرة للتهديدات وتحديثات مستمرة للنماذج والتدقيق في الأوامر النصية.

مقالات ذات صلة