الذكاء الاصطناعي يرصد الثغرات البرمجية تلقائيًا… وAnthropic تحوله لأداة أمنية

تحوّل Anthropic قدرات نموذجها Claude إلى أداة أمنية ترصد الثغرات البرمجية تلقائيًا، بعد نجاحه في اكتشاف مئات الثغرات عالية الخطورة في مشاريع مفتوحة المصدر

فريق التحرير

ملخص المقال

إنتاج AI

طورت Anthropic نموذج Claude Opus 4.6 ليصبح أداة أمنية قادرة على اكتشاف ثغرات معقدة في الشيفرات البرمجية، حيث نجح في رصد أكثر من 500 ثغرة خطيرة في مكتبات مفتوحة المصدر. تم دمج هذه القدرات في أداة Claude Code للمطورين، مما يوفر مراجعات أمان آلية ويقترح إصلاحات، مما يمثل تطورًا في مجال الأمن السيبراني مع تحديات محتملة لاستغلال الذكاء الاصطناعي من قبل المهاجمين.

النقاط الأساسية

  • نموذج Claude Opus 4.6 يكتشف أكثر من 500 ثغرة أمنية في مكتبات مفتوحة المصدر.
  • Anthropic تدمج قدرات النموذج في أداة Claude Code لمراجعات أمنية آلية للمطورين.
  • الذكاء الاصطناعي يغير قواعد اللعبة في الأمن السيبراني بين المدافعين والمهاجمين.

طوّرت Anthropic قدرات نموذجها الأحدث Claude Opus 4.6 ليصبح أشبه بـ«صيّاد ثغرات» يعمل تلقائيًا على فحص الشيفرة ورصد عيوب أمان معقّدة لم تستطع الأدوات التقليدية اكتشافها، ثم حوّلت هذه القدرات إلى أداة أمنية مدمجة في منتجها الموجه للمطورين Claude Code.

500 ثغرة خطيرة في مكتبات مفتوحة المصدر

تقول Anthropic إن Claude Opus 4.6 نجح خلال اختبارات داخلية في اكتشاف أكثر من 500 ثغرة «صفرية اليوم» عالية الخطورة في مكتبات مفتوحة المصدر مستخدمة على نطاق واسع، مثل Ghostscript وOpenSC وCGIF. أعطي النموذج هدفًا عامًا: البحث عن ثغرات في برمجيات محددة مع إمكانية استخدام أدوات قياسية مثل Python وأدوات تحليل الثغرات، لكنه اختار بنفسه منهجيته في الاستكشاف والتحليل.

هذه الثغرات شملت فئات حساسة مثل تلف الذاكرة (memory corruption)، ثغرات تنفيذ التعليمات عن بُعد، وأخطاء في التحقق من المدخلات والمصادقة، وجميعها يمكن أن تشكل مدخلًا لهجمات كبيرة لو استغلها مهاجمون. وأكدت الشركة أن كل ثغرة تم التحقق منها يدويًا قبل إبلاغ القائمين على المشاريع المفتوحة المصدر، وقد جرى إصلاح الكثير منها بالفعل.

من نموذج بحثي إلى أداة أمنية للمطورين

استثمرت Anthropic هذه القدرات في منتج عملي عبر إضافة مراجعات أمان آلية إلى أداة Claude Code، وهي أداة سطر أوامر تتكامل مع مستودعات الكود وأنظمة CI/CD مثل GitHub Actions. بات بإمكان المطور أن يطلب من الأداة إجراء /security-review على مشروعه، ليقوم Claude بمسح الشيفرة بحثًا عن أنماط ثغرات شائعة، مع شرح تفصيلي للمشكلات واقتراح إصلاحات لها.

Advertisement

تشمل الفئات التي يمكن اكتشافها: مخاطر حقن SQL، ثغرات XSS، مشاكل المصادقة والتفويض، التعامل غير الآمن مع البيانات، وثغرات في الاعتماديات (Dependencies). ويمكن أيضًا تشغيل هذا الفحص آليًا عند انتقال الكود من بيئة التطوير إلى الاختبار، بحيث لا يصل أي كود إلى الإنتاج من دون مرور بمراجعة أمان آلية على الأقل.

سباق تسلّح جديد في عالم الأمن السيبراني

تحذّر تقارير تقنية من أن قدرة نموذج واحد على اكتشاف عشرات أو مئات الثغرات «صفرية اليوم» تعني أن الذكاء الاصطناعي قد يغيّر قواعد اللعبة في الأمن السيبراني؛ إذ يمكن أن يساعد المدافعين على تسريع اكتشاف الثغرات وسدها، لكنه في الوقت نفسه قد يُستغل من قبل مهاجمين للعثور على نفس الثغرات قبل إصلاحها. وتقر Anthropic بأن هذه القدرات «مزدوجة الاستخدام»، وتقول إنها بدأت في نشر آليات مراقبة داخلية لـClaude لرصد أنماط الاستخدام الخبيث، مع إمكانية حجب الطلبات التي يُشتبه في استغلالها لأغراض هجومية.

مع ذلك، يرى متخصصون أن دمج مثل هذه الأدوات في دورة تطوير البرمجيات بات اتجاهًا لا مفر منه، وأن دور البشر سيتحوّل تدريجيًا من القيام بالمراجعة التفصيلية إلى الإشراف على مخرجات أنظمة الذكاء الاصطناعي، وتقييم مدى خطورة الثغرات والحلول المقترحة لها.

زاوية تحريرية لمادتك

يمكن تقديم الخبر تحت عنوان تقني–اقتصادي يربط بين «ثورة أدوات الأمن بالذكاء الاصطناعي» و«سباق التسلح السيبراني»، مع إبراز:

Advertisement
  • أن النموذج لم يعد يكتفي بمساعدة المبرمج، بل يتحول إلى عميل أمني استباقي يمشّط الكود ويقترح إصلاحات.
  • أن Anthropic توظّف نفس الأدوات داخليًا لحماية منتجاتها، ما يعكس ثقة عملية في قدرات النموذج الجديد