تصاعدت التوترات في أروقة قطاع التكنولوجيا عقب اجتماعات رفيعة المستوى جمعت قادة عسكريين أمريكيين ومسؤولين تنفيذيين في شركة أنثروبيك الرائدة. وبحسب تقارير إعلامية، طالب الجيش الأمريكي بالحصول على وصول غير مقيد لقدرات نموذج “كلود” المتقدم لدمجه ضمن العمليات العسكرية، وهو مطلب يتعارض مع سياسات السلامة التي تتبناها الشركة. أوضحت أنثروبيك أنها تشترط إشرافاً بشرياً صارماً وتطبق ضوابط أمان للحد من المخاطر. يعكس هذا التطور صراعاً بين وتيرة التطوير العسكري والضوابط الأخلاقية الضرورية للابتكار في قطاع التكنولوجيا.
وفق تقرير صحيفة ذا جارديان، تقاوم أنثروبيك السماح باستخدام تقنياتها في أنظمة الأسلحة المستقلة ذاتياً أو عمليات المراقبة الجماعية، مؤكدة على ضرورة وجود إشراف بشري للحد من المخاطر. وأشار التقرير إلى أن البنتاغون منح عقوداً بملايين الدولارات لشركات تقنية كبرى في إطار جهود تدفع أنثروبيك لتعديل سياسات الأمان الخاصة بها. يعكس هذا الخلاف جوهر الصراع بين التسريع التكنولوجي العسكري والمعايير الأخلاقية للابتكار، فيما تسعى الحكومات لحسم سباق التسلح الرقمي وتواجه الشركات ضغطاً سياسياً ومالياً قد يجبرها على التنازل عن مبادئها السلامة العامة.
الأسلحة المستقلة ذاتيًّا
هي أنظمة قتالية تعتمد بشكل كامل على الخوارزميات لتحديد الأهداف واتخاذ قرارات إطلاق النار دون الحاجة لتدخل بشري. وتضع الشركات ضوابط ومعايير لضمان عدم استخدامها في الإضرار بالأفراد أو انتهاك حقوق الدول. وتبرز ضرورة وجود إشراف بشري مستمر للحد من المخاطر والتأكد من الالتزام بالمعايير الأخلاقية أثناء تطبيقات الذكاء الاصطناعي في المجال العسكري.








