يعلن أكثر من ثلاثين موظفاً من شركتي OpenAI وGoogle DeepMind دعمهم موقف Anthropic في الدعوى القضائية المرفوعة ضد وزارة الدفاع الأمريكية. ويذكر البيان أن تصنيف Anthropic كخطر على سلسلة التوريد تعسفي وغير مبرر وله تداعيات واسعة على صناعة الذكاء الاصطناعي في الولايات المتحدة. ومن بين الموقعين عالم بارز هو Jeff Dean، كبير العلماء في Google DeepMind، إلى جانب عدد من الباحثين والمهندسين العاملين في قطاع الذكاء الاصطناعي. وأكد الموقعون أن مثل هذه القرارات الحكومية قد تكون لها تداعيات واسعة على مستقبل الصناعة وتنافس الولايات المتحدة في ظل التحديات العالمية الحالية.
وأشار البيان إلى أن التصنيف يجيز ممارسة السلطة الحكومية بشكل غير مبرر، وأنه يمثل استخداماً غير مناسب للسلطة في سياق سلسلة التوريد. كما أوضح أن القرار يثير مخاوف من تقويض قدرة الصناعة الأمريكية على المنافسة في مجال الذكاء الاصطناعي، خصوصاً في ظل المنافسة الدولية المتزايدة. وأضاف أن هذه الخطوة قد تقيّد النقاش المفتوح داخل مجتمع الذكاء الاصطناعي حول مخاطر وفوائد التكنولوجيا، وتؤثر في فرص الابتكار العلمي والصناعي.
بدائل الحكومة والتداعيات القانونية
ذكر الموقعون أن للحكومة خياراً واضحاً بإلغاء العقد مع Anthropic واللجوء إلى موردين آخرين لتوفير الخدمات، بدلاً من الاعتماد على تصنيف الشركة كمصدر خطر. وأشاروا إلى أن Anthropic قد رفعت دعويين ضد DoD وكيانات اتحادية أخرى للطعن في التصنيف وتأكيد أن القرار يضر بسمعتها وبقدرتها على التعامل مع الجهات الحكومية. كما حذروا من أن التصنيف قد يضعف التنافسية الأمريكية ويحد من الحوار العلمي المطلوب لمواجهة التحديات الأخلاقية والتقنية المرتبطة بالذكاء الاصطناعي.
وتؤكد الوثيقة أن الضوابط الأخلاقية الموضوعة لاستخدام تقنيات الذكاء الاصطناعي تمثل حماية ضرورية، وأن غياب تشريعات واضحة يجعل التقييد التعاقدي أحد أساليب الوقاية من إساءة الاستخدام. وأشار الموقعون إلى أن العديد من الموقعين شاركوا في رسائل مفتوحة خلال الأسابيع الأخيرة تدعو وزارة الدفاع إلى سحب التصنيف من Anthropic، ويدعون قياداتهم في OpenAI وGoogle إلى اتخاذ موقف واضح يرفض الاستخدام الأحادي للأنظمة دون الالتزام بالضوابط المتفق عليها.








