رئيس التحرير: حسام حسين لبش
مدير التحرير: علي عجمي

دراسة تحذر من الاعتماد المفرط على الذكاء الاصطناعي في القرارات

شارك

أظهرت دراسة أُجريت لصالح هيئة BBC في أكتوبر أن نسبة الأخطاء في أنظمة الذكاء الاصطناعي الشائعة مثل شات جي بى تى وجيميناي وكلاود لا تزال عالية، إذ قد تصل إلى 45% من الوقت. وتبيّن البيانات أن هذه الأنظمة أصبحت جزءاً من الحياة اليومية رغم ما تعانيه من أخطاء متكررة. وتؤدي هذه الأخطاء إلى مخاوف من الاعتماد المفرط على الذكاء الاصطناعي في اتخاذ القرارات اليومية، خصوصاً في المجالات الحساسة.

تحذير من الاعتماد المفرط

تشير تقارير إلى أن الاعتماد المفرط على الأنظمة الذكية قد ينتج عنه تضخيم الثقة بالإجابات حتى عندما تكون غير صحيحة، وبالتالي يقع المستخدمون في فخ التلقي غير النقدي للمعلومة. يؤكد خبراء في هذا المجال أن الاعتماد المستمر على الذكاء الاصطناعي في عمليات التفكير يمكن أن يضعف القدرة على التحقق من المصادر وتقييم الدقة بأنفسهم. كما يحذر العلماء من أن هذا التأثير قد يتسع مع مرور الوقت، ما يجعل من الضروري الاحتفاظ بقدرات التحقق البشري في اتخاذ القرار.

ثقة المستخدمين رغم الأخطاء

أظهرت ورقة بحثية حديثة أن المستخدمين يميلون إلى تصديق إجابات الذكاء الاصطناعي حتى عندما تكون خاطئة، وخلال سلسلة من التجارب اختار أكثر من 50% من المشاركين استخدام شات جي بى تى للإجابة عن أسئلة تتطلب التفكير والمعرفة، رغم أن ذلك لم يكن إلزامياً. وتبيّن النتائج أن الثقة في الإجابة الآلية تفوق التحقق النقدي في كثير من الحالات. وتبرز هذه الظاهرة الحاجة إلى تعزيز التوجيه البشري والتدقيق المستقل لضمان الدقة قبل الاعتماد النهائي على النتائج.

الاستسلام المعرفى وتأثيره

ركزت دراسة حديثة على مفهوم “الاستسلام المعرفى”، وهو ميل المستخدمين لقبول إجابات الذكاء الاصطناعى دون تدقيق. وأظهرت تجربة شملت 359 مشاركاً أن المشاركين التزموا بإجابات الذكاء الاصطارى الصحيحة بنسبة 92.7%، بينما استمروا في اتباع الإجابات الخاطئة بنسبة 79.8%، ما يعكس اتجاهاً قوياً نحو الاعتماد على الأنظمة حتى عند وجود معلومات غير دقيقة. وتشير النتائج إلى أن هذا الاتجاه قد يؤدي إلى تراجع مهارات التفكير النقدي مع مرور الوقت، وهو ما يستدعي الحفاظ على القدرة على التحقق من المعلومات وعدم الاعتماد كلياً على الذكاء الاصطناعي.

مخاوف بشأن التفكير النقدى

تشير نتائج الدراسات إلى اتجاه واسع في تحويل عمليات التفكير إلى الأنظمة الذكية، وهو ما يجعل من السهل تفويض اتخاذ القرارات المعرفية إلى أنظمة لا تتطلب تدقيقاً بشرياً متكرراً. يحذر الباحثون من أن الاعتماد المتزايد قد يضعف قدرة الأفراد على التحقق من الادعاءات والاعتماد على الاستنتاجات المنطقية بأنفسهم. لذا فإن تعزيز مهارات التفكير النقدي وتعلم كيفية فحص المصادر والاعتماد على مدخلات بشرية مستقلة يعتبران جزءاً أساسياً من استخدام الذكاء الاصطناعي بشكل مسؤول.

مقالات ذات صلة