تعلن شركة إنتل عن إطار عمل يهدف إلى تمكين التبني المسؤول للذكاء الاصطناعي وخوارزمياته. تشير إلى وجود بيئة تنظيمية تشجع على تبني الذكاء الاصطناعي وفق مخاطر ومبادئ محددة. تؤكد الشركة على أهمية المعايير الدولية لإطار ISO/IEC والأنظمة مثل NIST في تعزيز الثقة والاعتماد العالمي. وتوضح أن هذه المعايير تساهم في تقليل الحواجز التنظيمية وتوجيه التطوير واللوائح الناشئة بما يعزز المنافسة والابتكار.
معايير الذكاء الاصطناعي
تؤكد إنتل دعمها لنهج قائم على المخاطر ومتعدد الأطراف يضمن موثوقية الذكاء الاصطناعي. وتوضح أن المعايير الطوعية للذكاء الاصطناعي تشكل أساسًا لتطوير المسؤول واعتماد عالمي، وتلعب دورًا في توجيه السياسات واللوائح الناشئة. كما تبرز أن هذه المعايير تسهم في إزالة العوائق التجارية وتوفير إطار فني يدعم المنافسة والابتكار في السوق.
موثوقية الذكاء الاصطناعي
يعتمد نهج إنتل على مقاربة مشتركة تقيس المخاطر وتستلهم من أطر العمل الدولية مثل ISO/IEC وإطارات مثل إطار إدارة مخاطر الذكاء الاصطناعي المعتمَد من NIST. وتوفر هذه الأطر إرشادات أساسية لحوكمة البيانات والشفافية والدقة والصمود والتحيز. كما تؤكد الشركة أن الالتزام بتلك المعايير يحقق موثوقية أكبر للأنظمة ويعزز السلامة عبر العمر الافتراضي للتقنيات الذكية.
الذكاء الاصطناعي الآمن
في عصر التحول الرقمي يعيد الذكاء الاصطناعي تشكيل الصناعات ويحسّن الأداء، وفي المقابل تبرز تحديات الأمن السيبراني مع ازدياد قدرات AI. ترى إنتل أن من الضروري تفعيل آليات أمن سيبراني مدمجة في الأجهزة والبرامج لمواجهة التهديدات المتطورة. يعتمد النهج الآمن للذكاء الاصطناعي على الجمع بين أمن الذكاء الاصطناعي، الذي يعزز بنية الذكاء الاصطناعي ضد التهديدات السيبرانية، وذكاء اصطناعي يساعد في تعزيز الأمن السيبراني. وتدعو إلى تعزيز معايير آمنة للذكاء الاصطناعي وتوسيع التعاون الدولي بين الحكومات والجهات المعنية مثل تحالف الذكاء الاصطناعي الآمن والمنصات المؤسسية المفتوحة.








