رئيس التحرير: حسام حسين لبش
مدير التحرير: علي عجمي

تقرير يحذر المؤسسات: هجمات الذكاء الاصطناعي تفوق الدفاعات

شارك

أعلنت شركة Zscaler في تقريرها السنوي لعام 2026 أن الهجمات المدفوعة بالذكاء الاصطناعي تتحرك بسرعة تفوق قدرة الدفاعات البشرية والتقليدية على الاستجابة في الوقت المناسب. وتشير النتائج إلى أن المهاجمين، سواء كانوا عصابات إجرامية أو مدعومين من دول، يستخدمون الذكاء الاصطناعي لأتمتة عمليات التسلل واختراق الأنظمة في زمن قياسي يصل إلى أقل من 16 دقيقة. وتدعو النتائج المؤسسات إلى تبني استراتيجيات حماية رقمية قائمة على الذكاء الاصطناعي للكشف المبكر عن التهديدات وتحييدها بشكل استباقي وفوري.

توضح التحليلات أن سرعة الهجمات المدعومة بالذكاء الاصطناعي تضع الجهود البشرية والتقنيات التقليدية أمام اختبار صعب، وتؤكد أن الاختراق يمكن أن ينتقل من اكتشاف الثغرة إلى سرقة البيانات خلال دقائق قليلة. كما ترسم المؤشرات صورة صحيحة تدعو إلى اعتماد آليات دفاعية تعمل بمثابة ذكاء اصطناعي للكشف المبكر والاستجابة الآلية للتهديدات. وتؤكد المعطيات أن تبني المؤسسات للذكاء الاصطناعي يفوق قدرتها على حماية الأنظمة ويستلزم تحولا جذريا في استراتيجيات الأمن الرقمي دون عرقلة للابتكار.

تحليل المعاملات الرقمية

وبحسب TechNewsWorld، شمل التحليل الذي بلغ أكثر من تريليون معاملة رقمية بياناً بأن 40% من استخدام الموظفين للذكاء الاصطناعي يتضمن مشاركة بيانات مؤسسية حساسة دون رقابة كافية. يؤكد الخبراء أن الفجوة بين قدرات المهاجمين وسرعة استجابة فرق الأمن تتسع بشكل خطير، ما يفرض على الشركات اعتماد أنظمة دفاعية تستخدم تقنيات الذكاء الاصطناعي للكشف عن التهديدات وتحييدها بشكل استباقي وفوري. يوضح التقرير أن الأنظمة الذكية صارت أداة رئيسية للهجمات الآلية بسرعة آلة، سواء من برمجيات الجريمة أو الهجمات المدعومة من الدول.

اعتماد AI وتحديات الرقابة

أظهر التقرير أن الاعتماد على الذكاء الاصطناعي داخل المؤسسات ارتفع بنسبة 200% في قطاعات رئيسية، ومع ذلك تفتقر كثير من المؤسسات إلى جرد كامل للنماذج الذكية والوظائف المدمجة فيها، ما يخلق ملايين التفاعلات غير المراقبة وتدفقات كبيرة من البيانات الحساسة دون حماية كافية. يوضح الخبراء أن الذكاء الاصطناعي موجود بالفعل في أدوات الأعمال اليومية وتتصادف ميزاته الذكية بشكل افتراضي، ما يجعلها تتجاوز الرقابة التقليدية ولا يمكن حظرها عبر جدران الحماية القديمة. كما يشيرون إلى وجود واجهات برمجة تطبيقات تمنح صلاحيات مستقلة وتزيد من صعوبة السيطرة على المخاطر.

الهجمات بسرعة الآلة والثغرات

أظهرت اختبارات فريق الاختبار الأحمر أن معظم أنظمة AI المؤسسية يمكن اختراقها خلال 16 دقيقة فقط، مع رصد ثغرات حرجة في كل الأنظمة التي تم تحليلها. وتعتمد الأنظمة على تراكم أذونات متعددة قد تولد سلاسل هجوم غير مقصودة للوصول إلى بيانات حساسة أو أنظمة حيوية. وتُظهر الإحصاءات أن نسبة الهويات غير البشرية إلى البشرية وصلت حالياً إلى 82:1، مع محدودية الرقابة على قدرات النماذج ووجود واجهات برمجة تطبيقات تمنح صلاحيات مستقلة تزيد من صعوبة السيطرة على مخاطرها.

مشاكل التطوير والأمن

يشير التقرير إلى أن سباق التطوير في AI أدى إلى إصدار كود غير محكم من فرق مبتدئة، مما يفتح ثغرات أمنية. وتقوم الشركات بنشر ميزات مدعومة بالذكاء الاصطناعي دون مراجعة أمنية كافية، وتوجد نهايات للنماذج بلا مصادقة، وتُتاح APIs بصلاحيات مفرطة وتجاوز لإعدادات الأمان الافتراضية. وتكمن التحديات في وجود ثغرات قابلة للاستغلال نتيجة سرعة التطوير وعدم وجود ضوابط كافية على النماذج والتكاملات.

حجم المخاطر والبيانات

ارتفعت حركة البيانات المتجهة إلى تطبيقات AI/ML في عام 2025 إلى 18,033 تيرابايت، وهو ما يعادل نحو 3.6 مليار صورة رقمية. كما سجلت سياسات حماية البيانات 410 ملايين انتهاك مرتبطة بمحادثات AI مثل “ChatGPT” وحدها، بما في ذلك محاولات مشاركة أرقام الضمان الاجتماعي والكود المصدري والسجلات الطبية. وتبرز هذه الأرقام حجم المخاطر المرتبطة بتدفقات البيانات غير المحكومة وتحديات الامتثال.

الحوكمة كحل أساسي

أوضح التقرير أن المشكلة الأساسية ليست في الذكاء الاصطناعي نفسه بل في حوكمة الهوية وإدارة الوصول، فالمؤسسات التي تعتمد أنه من الضروري اكتشاف أنظمة AI وإدارة دورة حياتها وإشرافاً سلوكياً ستكون قادرة على تبني الذكاء الاصطناعي بشكل مستدام وآمن دون إبطاء الابتكار. كما تشدد النتائج على ضرورة وجود ضوابط مستمرة للهوية وإدارة الوصول وتقييم المخاطر وتدفقات البيانات الحساسة، إضافة إلى تطبيق إجراءات رقابية مناسبة. وبذلك يمكن للشركات أن تعتمد AI بشكل آمن وتحقق الفعالية والابتكار دون تعريض البيانات الحيوية للخطر.

مقالات ذات صلة