رئيس التحرير: حسام حسين لبش
مدير التحرير: علي عجمي

بالتزامن مع حرب إيران: تفاصيل حظر ترامب على Anthropic وClaude AI

شارك

أعلن الرئيس الأمريكي ترامب والإدارة الأمريكية عن مواجهة تقنية كبيرة ضد Anthropic ونظام Claude AI في خطوة اعتبرها خبراء حرباً تقنية موازية للأحداث العسكرية الجارية. وأوضحت المصادر أن القرار يأتي في إطار تصاعد التوترات الجيوسياسية وسياسة السيادة والتفوق التكنولوجي. ويدل الدعم الأميركي على أن هذه الخطوة ستكون لها تداعيات واسعة على سلاسل التوريد والقدرات الدفاعية. وستكون النتيجة تعزيز السيطرة الحكومية على تقنيات الذكاء الاصطناعي في القطاع الأمني.

صدر أمر من البيت الأبيض بوقف استخدام أنظمة Claude في جميع الوكالات الفيدرالية فورًا. وصنَّفت وزارة الدفاع Anthropic كخطر على سلسلة التوريد الأمني القومي، في إطار خلاف طويل حول من يحدد ضوابط استخدام الذكاء الاصطناعي الدفاعي. وكانت الشركة قد وقّعت عقداً بقيمة 200 مليون دولار مع البنتاغون لتخصيص ونشر نموذج Claude Gov لأغراض الأمن القومي.

خلاف الضوابط الأخلاقية ومرونة العمل الدفاعي

أوضح البنتاغون رغبته في إزالة القيود المفروضة على استخدام Claude ليتيح للجيش الوصول الكامل للنموذج وفق أغراض دفاعية قانونية. في المقابل رفض ديمو أمودي، الرئيس التنفيذي لـ Anthropic، التنازل عن الضوابط الأخلاقية للشركة، وأشار إلى وجود خطين أحمرين: ألا يُستخدم Claude للمراقبة الداخلية الشاملة للمواطنين الأمريكيين، وألا يُدمج في أنظمة أسلحة مستقلة تتخذ قرارات الحياة والموت دون إشراف بشري. وشدد البنتاغون على أن القانون الأميركي هو الذي يحدد استخدام الذكاء الاصطناعي الدفاعي، وليس سياسات شركة خاصة.

وفي ساعات قليلة، أعلن سام ألتمان، الرئيس التنفيذي لـ OpenAI، عن صفقة مع وزارة الدفاع لتطبيق نماذج OpenAI على الشبكات المصنفة مع الالتزام بمبادئ السلامة، بما يشمل منع المراقبة الجماعية المحلية وضمان وجود مسؤولية بشرية واضحة عن استخدام القوة. وأوضح أن هذه المبادئ منصوص عليها في القانون الأمريكي ومضمنة في العقد الجديد، ليحل بذلك OpenAI محل Anthropic في المشاريع الدفاعية الحساسة دون التخلي عن الضوابط الأمنية. ورحب الطرفان باستفاضة بتلك البنود، في حين أكدت Anthropic أنها ستستمر في الطعن قانونياً في التصنيف الذي يعتبرها جزءاً من سلسلة التوريد الدفاعية.

مقالات ذات صلة