تشهد ساحة التهديدات السيبرانية تحولات عميقة مدعومة بالذكاء الاصطناعي. فعلى الرغم من أن الذكاء الاصطناعي يمكّن فرق الدفاع من اكتشاف التهديدات والاستجابة لها بسرعة ودقة أكبر، إلا أنه في المقابل خفّض من عتبة الدخول أو الحاجز الأمني أمام المهاجمين لشنّ الهجمات وتوسيع نطاقها بسرعة. والنتيجة هي سباق تسلح يتطلب دفاعات أسرع وأكثر ذكاءً واستباقية للبقاء في صدارة مواجهة التهديدات السيبرانية المتقدمة ومنع الاختراقات.
يكشف تقرير التهديدات العالمي 2025 من كراودسترايك كيفية تمكّن الخصوم من استغلال قدرات الذكاء الاصطناعي لمهاجمة المؤسسات. إذ يُستخدم الذكاء الاصطناعي بشكل متزايد من قبل الخصوم في حملات الهندسة الاجتماعية. في الوقت ذاته، تتزايد الهجمات على البيئات السحابية، مثل ما يُعرف باختراق النماذج اللغوية الضخمة، LLMjacking، حيث يقوم الخصوم باختطاف نماذج الذكاء الاصطناعي أو التعلم الآلي الخاصة بالمؤسسات من خلال بيانات اعتماد مسروقة وثغرات في واجهات برمجة التطبيقات. ومع تسارع استخدام الخصوم للذكاء الاصطناعي كسلاح وعلى نطاق واسع، تحتاج الفرق الأمنية إلى امتلاك ميزة الذكاء الاصطناعي للحفاظ على أمن مؤسساتها.
يتيح الذكاء الاصطناعي القائم على الوكلاء Agentic AI قفزة هائلة إلى الأمام في هذه القدرات. فبينما يُستخدم الذكاء الاصطناعي التوليدي GenAI على نطاق واسع لإنشاء المحتوى والمساعدة في تنفيذ المهام، يوفر الذكاء الاصطناعي القائم على الوكلاء نقلة نوعية من خلال قدرته على تنفيذ مهام معقدة متعددة الخطوات بشكل مستقل – بخلاف أدوات الذكاء الاصطناعي التفاعلية التي تتطلب نقرة أو أمراً للتفعيل. وقد صُمم هذا النوع من الذكاء الاصطناعي لتعزيز القدرة على التكيف والتنفيذ الفوري، ويعمل نيابةً عن الكوادر الأمنية البشرية ، مقدّماً مستويات عالية من السرعة والاتساق والذكاء لا يمكن للأتمتة التقليدية مضاهاتها.
وعلى عكس الأتمتة التقليدية التي تتبع سير عمل صارم أو منطقي على القواعد، تم تصميم الذكاء الاصطناعي القائم على الوكلاء لتفسير السياق بشكل ديناميكي، واتخاذ القرارات وتنفيذ الإجراءات، بشكل مستمر ومستقل. ويمكنه تنفيذ سير العمل الكامل الخاص بالتحقيق والاستجابة عبر الأجهزة الطرفية والهويات وبيئات السحابة بشكل مستقل، والتكيّف في الوقت الفعلي بناءً على ملاحظات المحللين ونتائج التهديدات، مما يعزز دقة القرارات بشكل دائم. وتمنح هذه المرونة قدرات الذكاء الاصطناعي القائم على الوكلاء ميزة فريدة في مواكبة السرعة الكبيرة للخصوم المتطورين في الوقت الراهن.
ردم الفجوة بين الاكتشاف والاستجابة
بالنسبة لمراكز العمليات الأمنية SOCs اليوم، يمثل الذكاء الاصطناعي القائم على الوكلاء نقطة تحول حاسمة. تواجه هذه المراكز ضغوطاً هائلة نتيجة ازدياد حجم التنبيهات، وتقلص الوقت اللازم للاختراق والانتشار breakout time، واستمرار النقص في المحللين المؤهلين. ولم تعد الطرق التقليدية في تصنيف التنبيهات يدوياً قابلة للاستمرار. إذ يقضي المحللون وقتاً طويلاً في تصفية الإنذارات الكاذبة وملاحقة التهديدات ذات الأولوية المنخفضة، مما يؤدي إلى تصعيد مفرط للتنبيه، ويقلل من قدرتهم على الاستجابة للتهديدات الحقيقية أو الأكثر أهمية.
ويتمثل أحد أبرز سبل معالجة هذه التحديات في قدرة الذكاء الاصطناعي القائم على الوكلاء على محاكاة الحكم الخبير بسرعة الآلة. فهو قادر على تقييم التنبيهات الواردة بشكل مستقل، وتصفية التشويش، وتحديد مستوى الخطورة، واقتراح الخطوات التالية، مما يسرّع عملية التصنيف بشكل كبير ويخفف العبء والإرهاق الذهني عن المحللين.
وفي الواقع، فقد حقق هذا النموذج نتائج ملموسة. على سبيل المثال، تساعد ميزة تصنيف التنبيهات بواسطة Charlotte AI™ من كراودسترايك في تمكين الفرق الأمنية من استعادة ما يصل إلى 40 ساعة أسبوعياً من خلال أتمتة عملية التصنيف اليدوية, مع تحقيق دقة تفوق 98% في محاكاة قرارات البشر. وقد تم إنشاء Charlotte AI في إطار “الاستقلالية المحدودة”، ما يتيح للمؤسسات تحديد كيفية ووقت اتخاذ القرارات المؤتمتة، مما يمنح المحللين تحكماً كاملاً في تعيين العتبات، وتحديد متى يتطلب الأمر مراجعة بشرية، والحفاظ على الإشراف العام. ويساعد هذا التوازن المدروس بين الأتمتة والتحكم المؤسسات على توسيع نطاق الاستجابة، مع الحفاظ على الثقة في الإجراءات والنتائج المدعومة بالذكاء الاصطناعي.
وتضمن الاستقلالية المحدودة أن يعمل وكلاء الذكاء الاصطناعي ضمن حدود واضحة، مثل تقييد نطاق الوصول إلى البيانات، وتحديد طبيعة الاستجابات الممكنة، وفرض مسارات لتصعيد التنبيهات الأمنية الحرجة. ويؤسس هذا الإطار ضوابط تحكم تتماشى مع مستوى تقبُّل المؤسسة للمخاطر وبروتوكولاتها التشغيلية. ومن الضوابط المحورية الأخرى للذكاء الاصطناعي القائم على الوكلاء مبدأ “قابلية التفسير”، سواءً للمحللين أو للمراجعين. فإمكانية شرح وتبرير القرارات التي يتخذها الذكاء الاصطناعي أمرٌ أساسي للحفاظ على الثقة والشفافية وضمان الامتثال التنظيمي ضمن العمليات الأمنية المؤتمتة.