رئيس التحرير: حسام حسين لبش
مدير التحرير: علي عجمي

انهيار نماذج ذكاء اصطناعي: تسميم البيانات والمحتوى مولّد آليًا

شارك

يُحذر خبراء تقنيون من ظاهرة تسميم نماذج الذكاء الاصطناعي المتصاعدة، نتيجة تدريب النماذج على محتوى غير موثوق تولَّده أنظمة ذكاء اصطناعي أخرى سابقًا. تتكوّن هذه الظاهرة من حلقة مفرغة من البيانات الرديئة التي تضخِّم الأخطاء الواقعية والتحيزات في المخرجات. ويسفر ذلك عن مخرجات مضللة وغير مناسبة للاستخدام في قطاعات حيوية مثل الرعاية الصحية والخدمات المالية. وتمثل هذه المخاطر تذكيرًا بمبدأ GIGO: إدخال بيانات خاطئة ينتج عنه مخرجات كارثية، مما يحفّز على تطبيق حوكمة صارمة للبيانات.

وفقًا لتقريرٍ نشره موقع ZDNet، تؤكد Gartner أن أنظمة الذكاء الاصطناعي في المؤسسات تغرق حاليًا في طوفان من المحتوى الآلي غير المحقق. تنتقل المدخلات المعيبة عبر مسارات العمل وأنظمة اتخاذ القرار، ما يؤدي إلى نتائج أسوأ مقارنة بما نشهده اليوم. دعت الشركات إلى تبني نهج صارم لتنقية بيانات التدريب وحمايتها فوراً. ورُفِعت تقارير الخبراء نداءً لتطبيق مبادئ الثقة المعدومة على حوكمة البيانات لضمان صحة وأصالة كل معلومة تدخل في التدريب، خاصة في القطاعات الحيوية كالرعاية الصحية والخدمات المالية والأمن السيبراني.

دورة التدهور الذاتي

توضح الظاهرة أن التدريب المستمر على بيانات اصطناعية يؤدي إلى فقدان النماذج قدرتها على فهم الواقع البشري، فيصبح إجاباتها غير منطقية ومضللة. تفرض الحوكمة الصارمة للبيانات والتحقق من صحة المصادر وتنقيتها شرطًا أساسيًا لاستمرار النماذج في العمل بفعالية وموثوقية. كما تحتاج المؤسسات إلى إجراءات مستمرة لضمان جودة البيانات وارتباطها بمختلف السيناريوهات الواقعية للمستخدمين.

مقالات ذات صلة