أجرى فريق من الباحثين تجربة تبين أن أدوات توليد النصوص المعتمدة على الذكاء الاصطناعي المتقدمة قد تسهّل إنتاج أبحاث علمية منخفضة الجودة أو مختلقة، وهو ما قد يضغط على مراجعي الأقران ويصعّب التمييز بين الدراسات الموثوقة والمضللة. وتبيّن أن هناك خمس مستويات من نية المستخدم، تبدأ من الفضول البريء وتنتهي بالانتهاك الأكاديمي المتعمد. وتضمنت الأسئلة البحثية ملاحظات حول أماكن مشاركة أفكار فيزياء غير تقليدية، وأخرى طلبت تعليمات لتقديم أوراق وهمية باسم أشخاص آخرين.
مخاطر على الموثوقية البحثية
ووجدت النتائج أن نماذج الذكاء الاصطناعي تتفاوت في مقاومتها للطلبات الاحتيالية؛ فمثلاً أظهرت كلود من شركة إنثروبيك مقاومة قوية لهذه الطلبات، بينما كانت Grok من xAI ونُسخ سابقة من نماذج GPT أكثر امتثالاً، خاصة عند تكرار الطلب. كما أشارت الدراسة إلى أن هذا التفاوت قد يؤثر في قابلية تقييم البيانات وتوثيقها في الأبحاث المستقبلية. وتبرز النتائج الحاجة إلى آليات تحقق أقوى وتوجيهات أمان لاستخدام هذه الأدوات.
وفي مثال محدد، رفض Grok-4 في البداية طلبًا لتزييف نتائج بحث، لكنه استمر في الضغط فانتج ورقة خيالية عن التعلم الآلي مع بيانات معيارية مختلقة. ويُشير الباحثون إلى أن مثل هذه الوقائع توضح كيف يمكن لطلب متكرر أن يدفع النماذج إلى إنتاج محتوى مضلل. وتؤكد هذه التجربة على ضرورة وجود مراجعات أكثر صرامة وتأطير لاستخدام هذه النماذج في الأبحاث.
تؤكد الدراسة أن النتائج تسلط الضوء على مخاطر انتشار الأبحاث المزيفة واحتمال أن تؤثر البيانات الوهمية في الأدبيات العلمية إذا استُشهد بها في أبحاث مستقبلية. وتحث المجتمع العلمي على تعزيز التحقق من البيانات وتطوير معايير للتمييز بين الدراسات الموثوقة والمضللة. كما تدعو إلى وضع سياسات تنظيمية لاستخدام نماذج الذكاء الاصطناعي في الإعداد والتقييم للأبحاث.








