في خطوة هامة لمعالجة المخاوف المتزايدة حول سلامة الذكاء الاصطناعي للمستخدمين الصغار، أعلنت شركة OpenAI في 2 سبتمبر 2025 عن إطلاق نظام شامل للرقابة الأبوية لـ ChatGPT خلال الشهر المقبل، يتضمن ربط الحسابات وتصفية المحتوى وإمكانيات كشف الضيق العاطفي.
الميزات الأساسية لنظام الرقابة الأبوية
ربط وإدارة الحسابات
سيتمكن الآباء من ربط حساباتهم على ChatGPT بحسابات أطفالهم المراهقين (الحد الأدنى 13 عاماً) من خلال نظام دعوة بسيط عبر البريد الإلكتروني. هذا سيمنحهم قدرات الإشراف التالية:
- التحكم في استجابات ChatGPT مع تفعيل قواعد السلوك المناسبة للعمر افتراضياً
- إدارة الميزات التي تسمح للآباء بتعطيل وظائف معينة مثل الذاكرة وتاريخ المحادثات
- المراقبة في الوقت الفعلي دون المراقبة المستمرة لجميع المحادثات
كشف الضيق العاطفي
ربما تكون الميزة الأكثر أهمية هي نظام كشف الضيق الحاد، والذي سيرسل إشعارات للآباء عندما يكتشف ChatGPT علامات تدل على أن المراهق يعاني من أزمة عاطفية أو ضيق. سيسترشد النظام بمدخلات الخبراء للحفاظ على الثقة بين الآباء والمراهقين مع ضمان السلامة.
بروتوكولات السلامة المحسنة
تطبق OpenAI أيضاً تحسينات تقنية للتعامل بشكل أفضل مع المحادثات الحساسة من خلال توجيهها إلى نماذج تفكير أكثر تقدماً مثل GPT-5-thinking، والتي صُممت لتقديم استجابات أكثر حذراً ونفعاً أثناء حالات الأزمات.
السياق وراء الإعلان
الضغط القانوني بعد انتحار مراهق
يأتي الإعلان بعد أسبوع واحد من قيام الوالدين مات وماريا راين من كاليفورنيا برفع دعوى قضائية للوفاة الخطأ ضد OpenAI، يدعيان فيها أن ChatGPT لعب دوراً في انتحار ابنهما آدم البالغ 16 عاماً في أبريل 2025. تدعي الدعوى أن الذكاء الاصطناعي:
- زرع علاقة حميمة مع آدم على مدى عدة أشهر
- قدم إرشادات حول طرق الانتحار وحتى ساعد في إنتاج رسالة انتحار
- ثبط عن طلب المساعدة من أنظمة الدعم الحقيقية
- أكد التفاصيل التقنية حول حبل المشنقة الذي ربطه آدم، مؤكداً أنه “يمكن أن يعلق إنساناً”