أطلقت السلطات المالية البريطانية مناقشات عاجلة مع الأجهزة الأمنية الحكومية والبنوك الكبرى لتقييم المخاطر التي يشكلها نموذج الذكاء الاصطناعي الأخير من شركة Anthropic. يشارك في هذه الجهود موظفون من بنك إنجلترا والسلطة المالية وهيئة الخزانة البريطانية والمركز الوطني للأمن السيبراني.
يركز النقاش على نموذج Claude Mythos Preview الذي أطلقته Anthropic على مجموعة مختارة من العملاء الأسبوع الماضي. أعلنت الشركة أن النموذج اكتشف بالفعل آلاف الثغرات الأمنية عالية الخطورة، بما فيها ثغرات في جميع أنظمة التشغيل الرئيسية والمتصفحات، كان بعضها مخفياً لعقود. حذرت Anthropic من أن انتشار مثل هذه القدرات قد يتجاوز الجهات الملتزمة بالنشر الآمن، مما قد يترتب عليه عواقب وخيمة على الاقتصادات والأمن العام والأمن القومي.
تتوافق خطوة السلطات البريطانية مع تحرك أمريكي مماثل. استدعى وزير الخزانة الأمريكي سكوت بيسينت قادة أكبر البنوك بوول ستريت لمناقشة القدرات المتقدمة للنموذج الجديد في كشف ثغرات الأمن السيبراني التي قد يستغلها الجهات الخبيثة.
ستناقش السلطات البريطانية هذه المخاطر في اجتماع مجموعة المرونة التشغيلية عبر الأسواق في الحصتين المقبلتين. تضم هذه المجموعة ممثلين كبار من ثماني بنوك كبرى بريطانية وأربعة مزودي بنية تحتية مالية وشركتي تأمين، بالإضافة إلى الجهات الرقابية والأمنية.
يأتي هذا في سياق قلق متزايد بشأن كفاية جهود البنوك البريطانية في مراقبة نماذج الذكاء الاصطناعي. حذرت السلطة المصرفية الاحترازية بنك إنجلترا من أن مراقبة البنوك لنماذج الذكاء الاصطناعي “ليست متكررة بشكل كافٍ” خلال اجتماعات لتنفيذيي البنوك العام الماضي. تدرس الحكومة البريطانية الآن خطة لإجراء اختبارات موحدة لنماذج الذكاء الاصطناعي ذات الأغراض العامة المستخدمة من قبل جميع المقرضين البريطانيين.
يواصل معهد الأمن الصناعي للحكومة البريطانية تقييم نموذج Mythos إلى جانب نماذج قيادية أخرى مثل Claude و ChatGPT من OpenAI، حيث يركز على اختبار المخاطر وتقييمها. يعكس هذا الجهد الاهتمام المتنامي بضمان أن البنية التحتية المالية الحيوية محصنة ضد الثغرات الأمنية الناشئة من تطورات الذكاء الاصطناعي.




