أعلنت مايكروسوفت Maia 200 كخلف لـ Maia 100 التي أُطلقت في 2023. صممت الشريحة لتشغيل نماذج الذكاء الاصطناعي القوية بسرعة وكفاءة أعلى. تحتوي Maia 200 على أكثر من 100 مليار ترانزستور وتحقق أداء يفوق 10 بيتافلوب في دقة 4-بت، ويصل نحو 5 بيتافلوب في دقة 8-بت. وتؤكد مايكروسوفت أن عقدة Maia 200 يمكنها تشغيل نماذج حالية كبيرة بسهولة، مع وجود مجال واسع للنماذج الأكبر في المستقبل.
المواصفات والأداء
توضح المواصفات وجود أكثر من 100 مليار ترانزستور وتحقق أداء يفوق 10 بيتافلوب في 4-بت، بينما يصل إلى نحو 5 بيتافلوب في 8-بت. هذا يمثل تحسيناً كبيراً مقارنةً بالجيل السابق Maia 100. كما تسعى إلى تعزيز كفاءة استهلاك الطاقة أثناء الاستدلال لتسريع تشغيل النماذج الكبيرة. وتُعد القدرة على تشغيل النماذج الكبيرة بسهولة مع وجود مجال للنماذج الأكبر في المستقبل أحد أهداف Maia 200.
التوجه العالمي وتطبيق Maia
يتجه القطاع نحو شرائح مصممة داخلياً لتقليل الاعتماد على Nvidia. وتُظهر أمثلة Google تشغيلاً لوحدات TPU، بينما تؤكد أمازون على شريحة Trainium مع تحديث Trainium3 للمساعدة في تقليل الحمل على رقاقات Nvidia. يعزز ذلك مساعي مايكروسوفت لتقديم خدمات ذكاء اصطناعي أكثر كفاءة ضمن منصاتها.
الاستخدام الحالي والدعوة للمطورين
توضح مايكروسوفت أن Maia 200 تعمل حالياً على تشغيل نماذج فريق Superintelligence وتدعم Copilot، روبوت المحادثة الخاص بالشركة. منذ أيام، دعت الشركة المطورين والأكاديميين ومختبرات الذكاء الاصطناعي الرائدة لاستخدام حزمة Maia 200 SDK في أعمالهم. تهدف هذه الدعوة إلى تسريع الاعتماد وتحسين قدرات الذكاء الاصطناعي عبر الخدمات التي تقدمها مايكروسوفت.








