أثارت تقارير تقنية حديثة تساؤلات حول طريقة تعامل شركة Anthropic مع بيانات مستخدمي نموذج الذكاء الاصطناعي «Claude»، بعد كشف اعتماد واسع على أنظمة تحليل داخلية تقوم بتجميع وتخزين جزء من بيانات الاستخدام بشكل تلقائي. وتشير تحليلات أدوات مرتبطة بالخدمة إلى أن هذه الأنظمة لا تكتفي برصد الأعطال والأداء، بل تحفظ أيضاً معلومات تعريفية وتقنية مرتبطة بحسابات المستخدمين وسلوكهم على المنصة.
ما الذي يتم جمعه فعلياً؟
بحسب ما تضمنته التقارير، تشمل البيانات التي تُرسل إلى خوادم Anthropic عناصر مثل: معرّف المستخدم، معرّف الجلسة، نوع الجهاز ونظام التشغيل، البريد الإلكتروني المرتبط بالحساب، إضافة إلى تفاصيل حول الأدوات والميزات المستخدمة وعدد الطلبات وطريقة التفاعل معها. كما تعتمد الشركة في تقارير «المؤشر الاقتصادي» التي تنشرها على تحليل ملايين التفاعلات مع Claude ومكالمات الـAPI لاستخراج أنماط استخدام ومؤشرات أداء، ما يعني عملياً أن قدرًا كبيرًا من نشاط المستخدمين يُسجَّل ويُستخدَم في الإحصاءات الداخلية.
تبرير الشركة… ومخاوف الخصوصية
من جانبها، تقدّم Anthropic هذه الممارسات بوصفها جزءاً من «تحسين الجودة والأمان»، مؤكدة في صفحات الشفافية والسياسات المنشورة أن البيانات تُستخدم لرفع دقة النموذج، رصد إساءة الاستخدام، وتحسين موثوقية الخدمة، مع الإشارة إلى احترام الأطر التنظيمية بشكل خاص في القطاعات الحساسة مثل الرعاية الصحية. لكن باحثين في حوكمة الذكاء الاصطناعي يلفتون إلى أن مستوى التفاصيل التي تُجمع، وغياب توضيح كامل لكيفية استخدام هذه البيانات في التدريب أو مشاركتها، قد يضع المستخدم أمام طبقة جديدة من التتبع الرقمي لا يدركها بالكامل.
نصائح للمستخدمين العرب
يحذر خبراء الخصوصية من التعامل مع أدوات الذكاء الاصطناعي كمساحات «خاصة» بالكامل، خاصة عند إدخال بيانات حساسة عن العمل أو الحياة الشخصية. ويوصون المستخدمين – أفرادًا وشركات – بقراءة سياسات الخصوصية بعناية، التحقق من إمكان تعطيل بعض أدوات التتبع التحليلي حيثما أمكن، والامتناع عن إدخال معلومات شديدة الحساسية ما لم توجد اتفاقيات واضحة حول ملكية البيانات وكيفية تخزينها واستخدامها مستقبلاً.




