Microsoft: خلل في Office كشف رسائل عملاء سرّية أمام Copilot

مايكروسوفت أقرت بخلل في أوفيس سمح لـ Copilot بقراءة رسائل سرية.

فريق التحرير
فريق التحرير
Microsoft: خلل في Office كشف رسائل عملاء سرّية أمام Copilot

ملخص المقال

إنتاج AI

أقرت مايكروسوفت بوجود خلل في أوفيس سمح لـ Copilot بقراءة وتلخيص رسائل بريد إلكتروني سرية لعملاء الشركات، متجاوزًا سياسات حماية البيانات. بدأ الإصلاح في فبراير بعد اكتشاف المشكلة في يناير.

النقاط الأساسية

  • مايكروسوفت أقرت بخلل في أوفيس سمح لـ Copilot بقراءة رسائل سرية.
  • الخلل سمح لـ Copilot Chat بالوصول لرسائل حساسة في مجلدي المسودات والإرسال.
  • الحادثة تثير مخاوف حول أمن أدوات الذكاء الاصطناعي وسياسات حماية البيانات.

مايكروسوفت أقرت بوجود خلل برمجي في أوفيس مكَّن مساعدها الذكي Copilot من قراءة وتلخيص رسائل بريد إلكتروني «سرّية» لعملاء شركات، رغم تفعيل سياسات حماية البيانات التي يفترض أن تمنع إدخال هذه الرسائل في نموذج الذكاء الاصطناعي.

ماذا حدث بالضبط؟

أكدت مايكروسوفت أن خطأ في برمجية Microsoft 365 سمح لـ Copilot Chat بالوصول إلى محتوى رسائل بريد إلكتروني موسومة بتصنيفات حساسية مثل «Confidential»، وتلخيصها للمستخدمين، منذ يناير 2026 تقريباً.
الخلل مسجّل في لوحة صحة الخدمة الإدارية برقم CW1226324، ويخص رسائل في مجلدي Drafts وSent Items تم تطبيق التصنيف السري عليها، حيث كان يفترض أن تمنع سياسات منع تسرب البيانات (DLP) Copilot من استخدامها ضمن سياق الإجابة، لكن النظام تجاهل هذه السياسة في هذه المجلدات تحديداً.

من تأثر بالخلل؟

الحادثة طالت عملاء Microsoft 365 الذين يستخدمون Copilot Chat في تطبيقات أوفيس (Word, Excel, PowerPoint, Outlook) مع تفعيل سياسات DLP تستثني المحتوى «السري» من المعالجة بواسطة الذكاء الاصطناعي.
مايكروسوفت لم تكشف حتى الآن عن عدد العملاء المتضررين أو حجم الرسائل التي جرى الوصول إليها، واكتفت بالقول إن المشكلة قيد الإصلاح، وإنها بدأت في طرح تصحيح برمجي مطلع فبراير بعد تلقي بلاغات أولية من العملاء في 21 يناير.

كيف رُصد الخطأ وما علاقته بثغرات سابقة؟

Advertisement

المشكلة كُشِف عنها أولاً عبر تقارير مستخدمين ومقال تقني متخصّص لاحظ أن سياسات DLP لا تعمل كما يجب مع رسائل «Confidential» في مجلدي الإرسال والمسودات، رغم عملها بشكل صحيح مع الملفات والبريد في مجلدات أخرى.
تأتي الحادثة في سياق أوسع من مخاوف حول أمن Copilot؛ فقبلها بعام تقريباً جرى الكشف عن ثغرة «EchoLeak» ذات التصنيف الحرج (CVE-2025-32711)، والتي أوضحت كيف يمكن لسلاسل هجوم قائمة على حقن التعليمات في رسائل بريد غير موثوقة استغلال أسلوب عمل Copilot لسحب بيانات حساسة من سياق المستخدم دون علمه.

رد فعل مايكروسوفت والإجراءات المتخذة

قالت مايكروسوفت في الإشعار الموجّه للمسؤولين إن السبب «مشكلة في الشيفرة» أدت إلى تجاهل شرط استثناء الرسائل الموسومة بالسرّية عند بناء سياق الإجابة في Copilot Chat، وإنها بدأت تطبيق إصلاح تدريجي على مستوى الخدمة.
الشركة لم تُبلِغ عن أي استغلال خبيث موثَّق للخلل حتى الآن، لكنها أشارت إلى أن رسائل سرّية كان يمكن أن تظهر في ملخّصات يطلبها المستخدمون أنفسهم ضمن مؤسساتهم؛ ما يثير أسئلة حول مدى اعتماد الشركات على سياسات DLP وحدها لضبط ما يمكن أن يراه نموذج الذكاء الاصطناعي.

لماذا يثير هذا الحادث القلق؟

الحادثة تبيّن أن طبقة «السياسات» المحيطة بأدوات الذكاء الاصطناعي قد تفشل أحياناً في فرض الحدود المتفق عليها، حتى لدى مزوّد ضخم مثل مايكروسوفت، وأن اختبار هذه السياسات في كل سيناريو عملي (مثل مجلدات الإرسال والمسودات) ليس مضموناً دائماً