وجه الأمين العام للأمم المتحدة أنطونيو غوتيريش تحذيراً عاجلاً من التطور المتسارع للذكاء الاصطناعي. أكد أن مستقبل البشرية لا يمكن أن يُترك للخوارزميات. جاء هذا التحذير خلال المناقشة المفتوحة رفيعة المستوى لمجلس الأمن الدولي حول تأثير تقنيات الذكاء على السلام والأمن العالمي.
مخاطر الذكاء الاصطناعي في الأسلحة الفتاكة
شدد غوتيريش على ضرورة إبرام اتفاقية دولية ملزمة قانونياً بحلول العام المقبل. تهدف لحظر أنظمة الأسلحة الفتاكة ذاتية التشغيل. وصف الأمين العام هذه الأنظمة بأنها غير مقبولة سياسياً وبغيضة أخلاقياً.
أكد أن القانون الدولي يجب أن يحظر الآلات القادرة على إزهاق الأرواح دون تدخل بشري. أوضح أن هذه الأنظمة تثير مخاوف أساسية حول حقوق الإنسان والكرامة وسيادة القانون.
حذر من أن دمج الذكاء الاصطناعي مع الأسلحة النووية يشكل خطراً خاصاً. قد تكون له عواقب كارثية محتملة على البشرية جمعاء.
أولويات المعالجة الدولية لمخاطر الذكاء الاصطناعي
حدد الأمين العام أربع أولويات أساسية لمواجهة التحديات المتزايدة. أولاً، ضمان السيطرة البشرية على استخدام القوة العسكرية في جميع الأوقات.
ثانياً، بناء أطر تنظيمية عالمية متماسكة للذكاء الاصطناعي. ثالثاً، حماية سلامة المعلومات في حالات النزاع والصراع المسلح.
رابعاً، سد فجوة القدرات في مجال التقنيات المتطورة بين الدول المختلفة. هذا يضمن عدم احتكار القوى العظمى لهذه التقنيات الحساسة.
التضليل والتزييف العميق
دعا غوتيريش الحكومات والمنصات التقنية إلى التعاون لمكافحة التضليل وعمليات التزييف العميق. حذر من قدرة الذكاء الاصطناعي على خلق محتوى واقعي للغاية ينتشر فوراً عبر المنصات الرقمية.
يهدد هذا الأمر سلامة المعلومات ويجعل الحقيقة غير قابلة للتمييز عن الأكاذيب الصريحة. أشار إلى أن عمليات التزييف العميق قد تؤدي إلى أزمات دبلوماسية.