أعلنت شركة مايكروسوفت رسميًا إطلاق أولى نماذج الذكاء الاصطناعي المطوَّرة داخليًا في تاريخها، في خطوة تهدف لتعزيز استقلالها التكنولوجي وتقليل اعتمادها على تقنيات OpenAI رغم الشراكة المستمرة بين الشركتين.
أبرز النماذج الجديدة
- MAI-Voice-1: نموذج صوتي متقدّم قادر على إنتاج دقيقة كاملة من الكلام الطبيعي في أقل من ثانية واحدة، باستخدام وحدة معالجة رسومية واحدة فقط، ما يفتح المجال أمام تطبيقات صوتية فورية ومتطورة منخفضة الكلفة.
- MAI-1-preview: نموذج لغوي أساسي (foundation model) تم تدريبه بالكامل على أكثر من 15 ألف وحدة Nvidia H100، قادر على تنفيذ التعليمات النصية وتقديم إجابات دقيقة وسريعة للاستخدام اليومي وتطبيقات المساعد الذكي Copilot، ويجري دمجه تدريجيًا في خدمات مايكروسوفت خلال الأسابيع المقبلة.
الاستخدامات والتكامل
- يُستخدم MAI-Voice-1 فعليًا في خدمة Copilot Daily الملخّصة للأخبار، مع إمكانية توليد بودكاست تفاعلي وتغيير نبرة الصوت وأسلوب الإلقاء بناءً على رغبة المستخدم.
- تتيح المنصة الجديدة (Copilot Labs) تجربة النماذج مباشرة، ويمكن للمطورين طلب الوصول لنسخة تجريبية من MAI-1-preview عبر بوابة LMArena لاختبار الأداء واقتراح تحسينات.
- تؤكد مايكروسوفت أنها تتبنى استراتيجية متكاملة لبناء منظومة تضم عدداً من النماذج المتخصصة والمترابطة، بما يلبي احتياجات الأفراد والشركات على حد سواء.
رؤية مايكروسوفت المرحلية
Advertisement
- شدد مصطفى سليمان، رئيس قسم الذكاء الاصطناعي بمايكروسوفت، أن هذه النماذج مجرد بداية “لخريطة طريق طموحة جداً على مدى خمس سنوات”، وأن الشركة ستواصل ضخ استثمارات ضخمة لفك الارتباط التدريجي عن نماذج OpenAI، وخلق حلول ذكاء اصطناعي مدمجة بالكامل في منصاتها وخدماتها.
- الإدارة تسعى لتحقيق توازن بين التعاون مع OpenAI والاستقلالية التقنية اللازمة لتعزيز الابتكار والمنافسة في سوق الذكاء الاصطناعي العالمية