مايكروسوفت تواصل سيرها مع إم إي آي-1، نموذج لغوي جديد بنصف تريليون معلمة

في خطوة طموحة للتقدم في مجال الذكاء الاصطناعي، تستخدم Microsoft شراكتها مع OpenAI من خلال تطوير نموذجها الكبير للغة (LLM) الخاص، والمعروف بالرمز MAI-1. مع تكامل 500 مليار معلمة مذهلة، يُعرض MAI-1 على الأرجح هذا الشهر أو أثناء مؤتمر المطورين السنوي لشركة Microsoft بدءًا من 16 مايو.

هذا الإضافة الناشئة لمجموعة أدوات الذكاء الاصطناعي التابعة لشركة Microsoft تؤكد مكانتها كلاعب هام في مجال LLM. من ناحية مقارنة، كانت النسخة الأولى من GPT-3 التابعة لـ OpenAI تحتوي على 175 مليار معلمة. على الرغم من أن أرقام GPT-4 النهائية لم يتم نشرها بعد، يُشاع أنه قد يحتوي على حوالي 1.76 تريليون معلمة، مرددين الكبار مثل Gemini Ultra الذي تُزعم Google LLC أنه يعمل بما يقارب 1.6 تريليون معلمة.

سيتم وضع MAI-1 بين GPT-3 السابق و GPT-4 الأقوى، مما يوفر خيارًا “وسطيًا” بدقة عالية بينما يستهلك كمية أقل من الطاقة. تدل هذه الكفاءة على توفير استراتيجي لشركة Microsoft.

يُشرف على تطوير MAI-1 مصطفى سليمان، وهو من الشخصيات المؤثرة في الصناعة، الذي انضم إلى Microsoft قادمًا من كونه شريكًا مؤسسًا في DeepMind، ومؤسسًا لشركة تطوير نماذج LLM Inflection AI. يمكن أن تستفيد Microsoft من بيانات التدريب وغيرها من الموارد من Inflection AI لتعزيز قدرات MAI-1، التي تشمل استيعاب مجموعة متنوعة من المعلومات تشمل النصوص التي تم إنشاؤها بواسطة GPT-4 والمحتوى الواسع على شبكة الإنترنت.

بتنفيذ هذا التطوير بمساعدة مجموعة ضخمة من الخوادم المجهزة بوحدات معالجة الرسوميات من Nvidia، لا تزال Microsoft تفكر في التطبيقات العملية ل MAI-1. إذا كان يحتوي على نصف تريليون معلمة كما يُزعم، فإن النموذج اللغوي يمكن أن يكون معقدًا للغاية لأجهزة المستهلكين وبالتالي من المرجح أن يتم استخدامه في مراكز البيانات التابعة لشركة Microsoft لتمكين خدمات مثل Bing وAzure.

تشير هذه الخطوة إلى نية Microsoft بعدم الاعتماد حصريًا على OpenAI، وطموحها للحصول على أحدث نماذج الذكاء الاصطناعي بينما تحتفظ أيضًا بقدراتها الاستراتيجية على مستوى عالٍ من خلال MAI-1.

The source of the article is from the blog enp.gr

Privacy policy
Contact