تقارير تقنية تكشف تخزين Claude لبعض بيانات المستخدمين ضمن أنظمة تحليل تابعة لشركة Anthropic

تكشف تقارير تقنية أن نموذج الذكاء الاصطناعي Claude يخزّن جزءًا من بيانات المستخدمين ضمن أنظمة تحليل تابعة لـAnthropic، ما يثير تساؤلات حول الخصوصية وحدود استخدام هذه البيانات

فريق التحرير

ملخص المقال

إنتاج AI

كشفت تقارير عن جمع Anthropic لبيانات مستخدمي نموذج "Claude"، بما في ذلك معرفات المستخدم والجلسة والجهاز، بالإضافة إلى تفاصيل التفاعل، بهدف تحسين الجودة والأمان. يثير هذا قلقًا بشأن الخصوصية والتتبع الرقمي، وينصح الخبراء بقراءة سياسات الخصوصية وتجنب مشاركة البيانات الحساسة.

النقاط الأساسية

  • Anthropic تجمع بيانات المستخدمين لنموذج Claude لتحسين الأداء.
  • البيانات المجمعة تشمل معرفات المستخدم، الجهاز، والبريد الإلكتروني.
  • خبراء يحذرون من تتبع رقمي ويُنصحون بقراءة سياسات الخصوصية.

أثارت تقارير تقنية حديثة تساؤلات حول طريقة تعامل شركة Anthropic مع بيانات مستخدمي نموذج الذكاء الاصطناعي «Claude»، بعد كشف اعتماد واسع على أنظمة تحليل داخلية تقوم بتجميع وتخزين جزء من بيانات الاستخدام بشكل تلقائي. وتشير تحليلات أدوات مرتبطة بالخدمة إلى أن هذه الأنظمة لا تكتفي برصد الأعطال والأداء، بل تحفظ أيضاً معلومات تعريفية وتقنية مرتبطة بحسابات المستخدمين وسلوكهم على المنصة.

ما الذي يتم جمعه فعلياً؟

بحسب ما تضمنته التقارير، تشمل البيانات التي تُرسل إلى خوادم Anthropic عناصر مثل: معرّف المستخدم، معرّف الجلسة، نوع الجهاز ونظام التشغيل، البريد الإلكتروني المرتبط بالحساب، إضافة إلى تفاصيل حول الأدوات والميزات المستخدمة وعدد الطلبات وطريقة التفاعل معها. كما تعتمد الشركة في تقارير «المؤشر الاقتصادي» التي تنشرها على تحليل ملايين التفاعلات مع Claude ومكالمات الـAPI لاستخراج أنماط استخدام ومؤشرات أداء، ما يعني عملياً أن قدرًا كبيرًا من نشاط المستخدمين يُسجَّل ويُستخدَم في الإحصاءات الداخلية.

تبرير الشركة… ومخاوف الخصوصية

من جانبها، تقدّم Anthropic هذه الممارسات بوصفها جزءاً من «تحسين الجودة والأمان»، مؤكدة في صفحات الشفافية والسياسات المنشورة أن البيانات تُستخدم لرفع دقة النموذج، رصد إساءة الاستخدام، وتحسين موثوقية الخدمة، مع الإشارة إلى احترام الأطر التنظيمية بشكل خاص في القطاعات الحساسة مثل الرعاية الصحية. لكن باحثين في حوكمة الذكاء الاصطناعي يلفتون إلى أن مستوى التفاصيل التي تُجمع، وغياب توضيح كامل لكيفية استخدام هذه البيانات في التدريب أو مشاركتها، قد يضع المستخدم أمام طبقة جديدة من التتبع الرقمي لا يدركها بالكامل.

نصائح للمستخدمين العرب

Advertisement

يحذر خبراء الخصوصية من التعامل مع أدوات الذكاء الاصطناعي كمساحات «خاصة» بالكامل، خاصة عند إدخال بيانات حساسة عن العمل أو الحياة الشخصية. ويوصون المستخدمين – أفرادًا وشركات – بقراءة سياسات الخصوصية بعناية، التحقق من إمكان تعطيل بعض أدوات التتبع التحليلي حيثما أمكن، والامتناع عن إدخال معلومات شديدة الحساسية ما لم توجد اتفاقيات واضحة حول ملكية البيانات وكيفية تخزينها واستخدامها مستقبلاً.