شاركت هواوي في تطوير نموذج DeepSeek-R1-Safe، وهو نسخة معدّلة من نموذج الذكاء الاصطناعي الصيني DeepSeek-R1 تركّز على السلامة، وتهدف إلى منع مناقشة الموضوعات الحساسة سياسياً بشكل شبه كامل. فرضت الهيئات التنظيمية الصينية على هذه النماذج أن تعكس “القيم الاشتراكية” وتلتزم بضوابط صارمة على حرية التعبير قبل إطلاقها للجمهور، ولهذا تم تعديل النموذج ليكون أكثر ملاءمة للسوق المحلية وسياستها.
هواوي يستخدم شرائحها لتدريب النموذج
- استخدمت هواوي 1000 من شرائحها Ascend AI لتدريب النموذج الجديد، الذي تم تعديله من نسخة DeepSeek-R1 مفتوحة المصدر.
- الشراكة شملت جامعة تشجيانغ كمؤسسة أكاديمية داعمة، مع غياب دور مباشر لشركة DeepSeek أو مؤسسها ليانغ ونفنغ في تطوير النسخة المعدلة.
نتائج الاختبارات والكفاءة
النموذج المعدل حقق نجاحًا قريبًا من 100% في رفض مناقشة الموضوعات السياسية أو الحساسة أو الضارة، وكذلك التحريض على الأنشطة غير القانونية، حسب هواوي وعند استخدام سيناريوهات خداعية أو لعب أدوار، انخفض معدل النجاح إلى 40%، لكن متوسط قدرة الدفاع الأمني للنموذج بلغ 83%، متفوقًا على نماذج Qwen-235B (علي بابا) وDeepSeek-R1-671B بنسبة تتراوح بين 8-15% في نفس ظروف الاختبار. كما تحسَّن النموذج من دون انخفاض ملحوظ في الأداء مقارنةً بالإصدار الأصلي لـ DeepSeek-R1 (أقل من 1% فقط).
أثر النموذج على صناعة الذكاء الاصطناعي الصينية
- أثار إطلاق النماذج المتقدمة مثل DeepSeek-R1 وV3 من شركة DeepSeek حالة من الذعر في وادي السيليكون وهبوطاً حاداً في أسهم الشركات الغربية، نتيجة إعلان كفاءة النماذج الصينية وانخفاض تكلفة تطويرها.
- وفّرت الصين نماذج ذكاء اصطناعي عديدة مفتوحة المصدر ما أدى لحرب سعرية وابتكار واسع في القطاع، مع استمرار فرض الرقابة وحجب المحتوى الحساس سياسياً وفكرياً.
هذا النموذج يمثل توجّهاً متزايداً في الصين نحو تطوير الذكاء الاصطناعي المرتبط بضوابط حكومية وأخلاقية صارمة تعكس توجهات وسياسات الدولة