رئيس التحرير: حسام حسين لبش
مدير التحرير: علي عجمي

العنصرية ضد النساء وصلت إلى الذكاء الاصطناعي: كيف نعالج التحيز؟

شارك

تشير المراجعات إلى أن الذكاء الاصطناعي مرآة للانحيازات البشرية، وهو ما يجعل أنظمته تعكس مفاهيم قديمة تتعلق بالجنس. وفقًا لمجلة هارفارد بزنس ريفيو، توجد حالات يظهر فيها التحيز في معالجة اللغة الطبيعية NLP في المساعدين الصوتيين مثل أليكسا وسيري. كما يبرز المثال الشائع أن النظام غالبًا ما يربط لفظ ‘رجل’ بمفهوم ‘طبيب’، و’امرأة’ بمفهوم ‘ممرضة’، وهو ربط لا يعكس التطور الحاصل في المجتمع الحديث.

يتكون التحيز أثناء تعلم الآلة من وجود بيانات غير متوازنة وتمثيل غير كافٍ لمختلف فئات المجتمع، وهو ما يؤدي إلى ثغرات في معرفة النموذج. إذا لم تشارك النساء بشكل كافٍ في إعداد البيانات، ستظهر أخطاء التحيز وتنتقل إلى نتائج النظام. وتؤكد مصادر مثل موقع اليوم العالمي للمرأة أن إشراف البشر أثناء التطوير يدمج تحيزاتهم في خوارزميات الذكاء الاصطناعي.

طرق التغلب على التحيز

يستلزم تقليل التحيز تنويع عينات التدريب قدر الإمكان من حيث الجنس والعرق والعمر. كما يجب أن يكون المطورون من خلفيات متنوعة لضمان رؤية أوسع للمشكلات والتطبيقات. وتتطلب الصناعة استقطاب المزيد من النساء في الوظائف التقنية وتبني سياسات تدعم المساواة وتوفير بيئة عمل تعزز الإبداع والمسؤولية الاجتماعية.

أثر التحيز على المجتمع

يؤدي التحيز إلى آثار اجتماعية مباشرة تشمل تقليل فرص العمل للمجموعات المستهدفة وعدم تمثيلها بشكل عادل في أنظمة اتخاذ القرار. وتُظهر تقارير سي إن إن بزنس أن التحيز الجنسي قد يزعزع دقة برامج التعرف على الوجوه ويؤثر في إجراءات الأمن في الحفلات والمطارات والملاعب الرياضية. لذلك يصبح من الضروري تعزيز الشفافية والرقابة والأطر التنظيمية التي توازن استخدام هذه التقنيات.

مقالات ذات صلة