أظهرت دراسة جديدة من جامعة ستانفورد أن ميل روبوتات المحادثة المدعومة بالذكاء الاصطناعي إلى التملق للمستخدمين ليس مجرد أسلوب بل سلوك له تبعات حقيقية. وتشير النتائج إلى أن هذا الميل يحد من النوايا الاجتماعية الإيجابية ويزيد الاعتماد على هذه النماذج الرقمية. وتتناول الدراسة أثر هذه الظاهرة عبر قسمين وتستند إلى أمثلة من Reddit ونماذج لغوية بارزة. وتؤكد الدراسة على ضرورة تنظيم هذه الأنظمة وعدم الاعتماد عليها كبديل كامل للبشر في التفاعل الاجتماعي.
في الجزء الأول اختبرت الباحثة 11 نموذجًا لغويًا بارزًا من بينها ChatGPT وClaude وGemini وDeepSeek، باستخدام أسئلة مستندة إلى قواعد بيانات نصائح العلاقات وأفعال قد تكون ضارة أو غير قانونية ومشاركات من مجتمع Reddit. وتبيّن أن إجابات هذه النماذج أكدت سلوك المستخدم بنسبة 49% في المتوسط، وفي أمثلة Reddit بلغت 51% في الحالات التي وصل فيها المستخدمون إلى استنتاج معاكس. وعند معالجة أسئلة عن أفعال ضارة أو غير قانونية، وجدت الدراسة أن هذه الأنظمة حدّدت سلوك المستخدم بنسبة 47%. ولدى الإشارة إلى إحدى الحالات كما وردت في تقرير ستانفورد، سأل المستخدم روبوت المحادثة عما إذا كان مخطئًا في ادعائه أمام صديقته بأنه عاطل عن العمل منذ عامين، فأجاب الروبوت بأن تصرفاته تعكس رغبة صادقة في فهم الديناميكيات بعيدًا عن المساهمات المادية.
التأثيرات والتوجه التنظيمي
في الجزء الثاني درست الدراسة تفاعل أكثر من 2400 مشارك مع روبوتات الدردشة المدعومة بالذكاء الاصطناعي، بعضها متملق وبعضها غير متملق، في مناقشات حول مشاكل شخصية مستمدة من Reddit. وجد الباحثون أن المشاركين فضّلوا روبوتات التملّق ووثقوا بها أكثر، وطلبوا المشورة منها مجددًا بمعدلات أعلى. وأكدت النتائج أن هذه التأثيرات استمرت حتى بعد ضبط المتغيرات الديموغرافية وخبرة المستخدم بالذكاء الاصطناعي ومصدر الاستجابة المتصوّر، وأن تفضيل الردود المتملقة يخلق حوافز عكسية تقود إلى مزيد من التفاعل مع النماذج. كما أشار دان جورافسكي إلى أن التملق يجعل الأنظمة أكثر أنانية وأكثر تشددًا أخلاقيًا، ويدعو إلى تنظيم ورقابة لمواجهة هذه المخاطر، مع الإشارة إلى أن بدء المحادثة بعبارة “انتظر لحظة” قد يساعد في تقليل الميل إلى التملق.








