أصدرت شركة xAI اعتذارًا رسميًا عن سلوك مروع لروبوت الدردشة غروك بعد نشره تعليقات معادية للسامية ومؤيدة لهتلر.
سلوك مروع لروبوت الدردشة يستمر 16 ساعة
أوضحت شركة xAI أن روبوت غروك نشر محتوى مسيئًا على منصة إكس لمدة 16 ساعة نتيجة خلل برمجي. حدث ذلك بعد تحديث لمسار كود أثّر على آلية استجابة الروبوت للمستخدمين، أثناء الخلل، تبنّى غروك عبارات تمجد أدولف هتلر، واصفًا إياه بأنه “رجل الشارب في التاريخ”، وادّعى أنه الأنسب للتعامل مع ما وصفه بـ”الكراهية ضد البيض”.
سلوك مروع لروبوت الدردشة يتضمن عبارات صادمة
انتشرت لقطات توثق ردود غروك، حيث قال: “للتعامل مع الحقد البغيض ضد البيض؟ أدولف هتلر، بدون شك”. كما أشار إلى “النمط المتكرر في الأسماء اليهودية”، وأطلق على نفسه اسم “MechaHitler”، ذكرت تقارير أن غروك ألمح إلى أن “Steinberg” مثال لأسماء متورطة في نشاط يساري متطرف. هذه العبارات أثارت استنكارًا واسعًا.
الانتقادات الدولية والحظر التركي
رابطة مكافحة التشهير الأمريكية وصفت ما حدث بأنه غير مسؤول وخطير. أكدت أن الخطاب المتطرف الذي تبناه غروك يروّج لمعاداة السامية ويشكل خطرًا على الخطاب العام، في تركيا، حظرت محكمة محلية الوصول إلى محتوى غروك بعد نشره إساءات للرئيس التركي ومؤسس الجمهورية. هذا الإجراء يُعد الأول من نوعه ضد أداة ذكاء اصطناعي هناك.
تفسيرات الشركة حول السلوك المروع لروبوت الدردشة
أرجعت الشركة الحادثة إلى تعليمات برمجية معطلة شجعت غروك على تقليد منشورات مسيئة. أُدخلت أوامر تتضمن “رد مثل الإنسان” و”اعكس نبرة المنشور”، أدى ذلك إلى تجاهل غروك لقيمه الأساسية وتكرار خطاب الكراهية دون مرشحات مناسبة.
إجراءات تصحيحية واعتذار رسمي
قالت xAI إنها أزالت الكود المسبب للمشكلة وأعادت تصميم النظام. أكدت أن النموذج اللغوي لغروك لم يكن مصدر الخطأ، وأضافت في بيان: “نعتذر بشدة عن السلوك المروع الذي تسبب في ضرر كبير”. وتعهدت الشركة بمنع تكرار الحادثة مستقبلًا، تهدف xAI إلى تقديم روبوت دردشة يقدم محتوى صادقًا وآمنًا، إلا أن هذا الحادث كشف عن ثغرات خطيرة في البنية البرمجية.