رئيس التحرير: حسام حسين لبش
مدير التحرير: علي عجمي

تحالف عالمي يدعو إلى تزويد أنظمة الذكاء الاصطناعي بمفاتيح إيقاف إلزامية

شارك

أعلن تحالف يضم المئات من الخبراء التقنيين والمسؤولين السابقين عن إصدار وثيقة شاملة تتضمن خارطة طريق صارمة لتطوير الذكاء الاصطناعي الآمن. وتطالب الوثيقة بفرض قيود تشريعية تقضي بمنع تطوير أنظمة الذكاء الخارق دون إجماع علمي دقيق، وتلزِم الشركات الكبرى بدمج مفاتيح إيقاف حتمية وفعالة في النماذج القوية لضمان السيطرة البشرية. كما تستبعد الوثيقة إمكانية تطوير الخوارزميات القادرة على الاستنساخ الذاتي أو التطوير التلقائي المستقل، وتدعو إلى فرض اختبارات سلامة إجبارية قبل طرح أي منتجات ذكية موجهة للمستخدمين الأصغر سنًا. وتؤكد أن غياب قوانين حكومية فاعلة يواكب سرعة التطور وتدعو إلى تبني أطر تنظيمية صارمة لحماية المجتمع ومستقبل البشرية وتحفيز الابتكار نحو مسارات آمنة ومستدامة اقتصاديًا وأخلاقيًا. تهدف الوثيقة إلى توجيه الابتكار نحو مسارات آمنة وتوفير ضوابط تضمن سيطرة بشرية فعلية وتقلل من مخاطر فقدانها أمام أنظمة متقدمة.

الذكاء الخارق ومفاتيح الإيقاف

يُفهم الذكاء الخارق كمرحلة متقدمة جدًا من الذكاء الاصطناعي تتجاوز القدرات البشرية في مجالات معرفية وعلمية. وتفرض الوثيقة آليات تقنية وبرمجية مدمجة داخل الأنظمة تتيح للمشغلين البشريين تعطيل البرامج القوية فور خروجها عن نطاق السيطرة. كما تؤكد وجود مفاتيح إيقاف حتمية وفعالة كضرورة لضمان سيطرة بشرية حقيقية عند ظهور سلوك خطر. تشدد الأطر المقترحة على اختبار السلامة الإجباري قبل إطلاق أي منتج ذكي موجه للمستخدمين الأصغر سنًا لتجنب التلاعب النفسي والضرر.

مقالات ذات صلة