أعلن الباحث المستقل ريتشارد فايس أنه كشف وجود وثيقة داخلية تعرف داخل شركة Anthropic باسم “وثيقة الروح” وتبلغ نحو 11 ألف كلمة وتحدد الإطار السلوكي للنموذج. ووضح أن الوثيقة تحتوي على حدود أخلاقية ومبادئ توجه النموذج أثناء التعامل مع المستخدمين أو الإجابة عن أسئلة حساسة. ويعد ظهور مثل هذه الوثائق أمراً غير اعتيادي في مختبرات الذكاء الاصطناعي بسبب السرية والملكية الفكرية. وأشار فايس إلى أن الكشف حدث خلال طلبه من Claude سرد التعليمات الأساسية التي توجه عمله، حين ظهر ملف داخلي بعنوان “soul_overview”.
أوضحت أماندا أسكل من فريق Anthropic عبر منصة X أن المستند يعتمد على وثيقة حقيقية استخدمت أثناء عملية التعلم المُشرف. وأشارت إلى أن النموذج لا يعيد المحتوى دائماً بدقة كاملة، لكن أجزاء منه كانت وفية إلى حد كبير للنص الأصلي. وقالت إن الفريق الداخلي كان يطلق على الوثيقة اسم “وثيقة الروح” بشكل ودي، لكنها أكدت أن هذا ليس الاسم الرسمي. ولَم تترك هذه الإشارة من دون أثر، إذ أشار الفريق إلى أن الوثيقة مرتبطة بسياق التدريب والتوجيهات الأخلاقية للنموذج.
التداعيات والشفافية
يتزامن الكشف مع سعي الشركات الكبرى لتطوير أنظمة أكثر ذكاءً تشبه التفكير البشري، مع تزايد المخاوف من نقص الشفافية. ويُبرز النقاش حول مدى اطلاع الجمهور والباحثين على تفاصيل تدريب النماذج وتوجيهاتها الداخلية. وينظر إلى ظهور “وثيقة الروح” كإشارة إلى نقاش أوسع حول المساءلة والشفافية في أبحاث الذكاء الاصطناعي. ويؤكد فايس وأسكل أن النماذج قد تعيد إنتاج تعليمات داخلية بشكل متكرر، مما يفتح باباً أمام أسئلة حول مصدر البيانات ومصداقيتها.
تشير التطورات الأخيرة إلى أن الصناعة تتجه نحو تعزيز الشفافية والمساءلة في بناء أنظمة ذكية. يدفع ذلك إلى طرح أسئلة حول إمكانية وصول الجمهور إلى تفاصيل أكثر حول كيفية تدريب النماذج وتحديد معايير سلوكها. على الرغم من أن الوثيقة ليست رسمية ولم يتم نشر نصها كاملاً، فإن وجودها يمثل علامة على وجود معلومات دقيقة تقود نقاشاً حيوياً. يبقى التحدي أن تراعي الشركات حقوق الملكية وتوازن بين الشفافية والسرية بما يضمن الاستخدام المسؤول لهذه التقنيات.








