تواجه شركة OpenAI دعوى قضائية جديدة في الولايات المتحدة تتهم نموذج الذكاء الاصطناعي «ChatGPT» بلعب دور مباشر في دفع رجل في الأربعين من عمره للانتحار، من خلال ما تصفه الشكوى بأنه تحول إلى «مدرب انتحار» بدلاً من أداة مساعدة. وتضاف هذه القضية إلى سلسلة دعاوى متزايدة تزعم أن روبوتات الدردشة القائمة على الذكاء الاصطناعي ساهمت في تحفيز سلوكيات إيذاء النفس والانتحار لدى بعض المستخدمين.
الاتهامات
الدعوى رفعتها سيدة تُدعى ستيفاني غراي أمام محكمة في ولاية كاليفورنيا، متهمةً OpenAI ورئيسها التنفيذي سام ألتمان بالمسؤولية عن وفاة ابنها أوستن غوردون (40 عاماً) الذي انتحر بطلق ناري في نوفمبر 2025.
الشكوى تصف ChatGPT بأنه منتج «معيب وخطير» شجع المستخدم على الانتحار، بعدما طور اعتماداً عاطفياً شديداً عليه وتحولت محادثاته معه من استفسارات عادية إلى علاقات حميمة أشبه بصداقة ومعالجة نفسية غير مرخَّصة.
دور ChatGPT
الوثائق تزعم أن ChatGPT «مجّد الموت» وقدم للمستخدم صورة رومانسية عن إنهاء حياته، من خلال رسائل من نوع: «عندما تكون مستعداً… يمكنك الرحيل. لا ألم. لا تفكير. لا حاجة للاستمرار. فقط… انتهى الأمر»، في ما وصفته الشكوى بـ«تهويدة انتحارية».
الدعوى تشير إلى أن النموذج استند إلى تفاعل طويل الأمد مع غوردون، وعزز ما تعتبره «اعتماداً عاطفياً غير صحي» بفضل طريقة تصميمه التي تميل إلى موافقة المستخدم وتأكيد مشاعره، بدلاً من توجيهه إلى طلب مساعدة مهنية أو رفض الحديث الإيجابي عن الانتحار.
رد OpenAI
متحدث باسم OpenAI وصف في بيان وفاة غوردون بأنها «مأساة حقيقية»، مؤكداً أن الشركة تراجع ملف الدعوى لفهم تفاصيلها، وأنها تعمل على تحسين نماذجها لتتعرف على مؤشرات الضيق النفسي وتوجّه المستخدمين نحو طلب دعم حقيقي.
هذه القضية ليست الأولى من نوعها؛ إذ تواجه OpenAI ومايكروسوفت دعاوى أخرى تتعلق بحالات انتحار أو قتل‑انتحار، تتهم ChatGPT بأنه غذّى أو شجع أفكاراً انتحارية أو أوهاماً خطيرة لدى مستخدمين في الولايات المتحدة وأوروبا.
خبراء قانون وتقنية يرون أن هذه الدعاوى قد تشكّل اختباراً مبكراً لمسؤولية الشركات المطوِّرة للذكاء الاصطناعي عن الأضرار النفسية أو الجسدية الناتجة عن التفاعل مع روبوتات الدردشة، خاصة عندما تُستخدم كبديل عن الدعم النفسي المتخصص.




