توصلت عدة دراسات حديثة إلى أن الاعتماد المتكرر على أدوات الذكاء الاصطناعي يُحدث تراجعاً ملحوظاً في القدرات العقلية والمهارات الإدراكية للبشر. أظهرت النتائج أن استخدام هذه الأدوات بشكل مفرط يُضعف التفكير النقدي والقدرة على التحليل المستقل والابتكار.
دراسة سويسرية توثّق التراجع المعرفي
أجرى الباحث السويسري مايكل غيرليش دراسة شملت 666 شخصاً هذا العام. اعتمدت الدراسة على أدوات قياس معتمدة عالمياً تُعرف باختبار هالبرن للتفكير النقدي (HCTA). أظهرت النتائج علاقة سلبية واضحة بين الاستخدام المتكرر للذكاء الاصطناعي وتراجع مهارات التفكير النقدي. كانت الفئات الصغيرة في السن هي الأكثر تأثراً بهذا التراجع.
تشبه الظاهرة ضعف العضلات عند التوقف عن استخدامها. عندما يفوّض الإنسان عمليات التفكير الأساسية للآلة، يحدث تراجع تدريجي في القدرات العقلية. يوضح ذلك كيف أن الراحة التي توفرها التكنولوجيا قد تأتي بثمن معرفي باهظ.
نتائج دراسة معهد ماساتشوستس للتكنولوجيا
حذّرت دراسة صادرة عن معهد ماساتشوستس للتكنولوجيا (MIT) من أن الاستخدام المفرط لأدوات مثل ChatGPT قد يؤدي إلى تدهور في القدرات المعرفية. اختبرت الدراسة مجموعات مختلفة من المشاركين في مهام كتابية متنوعة.
سجلت المجموعة التي اعتمدت كلياً على ChatGPT أقل مستويات التنشيط العصبي في مناطق الدماغ المسؤولة عن الذاكرة والتفكير التحليلي. واجه أفراد هذه المجموعة صعوبة واضحة في تذكّر ما كتبوه أو التعرف إليه لاحقاً. عندما طُلب منهم تكرار المهمة دون استخدام الأداة، كانت النتائج ضعيفة جداً، وبدت كتاباتهم “سطحية ومنحازة” بحسب التقرير.
“الدين المعرفي” والتأثيرات السلبية الممتدة
خلصت دراسة MIT إلى مفهوم أطلقت عليه “الدين المعرفي”. يشير هذا إلى تراجع مهارات التفكير المستقل والإبداع لدى مستخدمي الذكاء الاصطناعي. زيادة قابلية الفرد للتأثر بالمعلومات المضللة تُعتبر خطراً إضافياً.
أظهرت النتائج أن المشاركين الذين كتبوا مقالاتهم بقوتهم الذهنية فقط أبدوا درجات أعلى من الرضا الشخصي. شعروا بملكية حقيقية لما أنتجوه. بعض مستخدمي ChatGPT عجزوا حتى عن تذكّر مضمون ما كتبوه أو إعادة صياغة فقرات منه عند الطلب.
تفويض المهام العقلية والتفريغ المعرفي
وصف العلماء الظاهرة بمصطلح “التفريغ المعرفي”. يحدث عندما يعهد الإنسان إلى الآلة بأداء المهام الذهنية باستمرار. دراسة نشرت في مجلة “سوسيتيز” أوضحت أن هذا يؤثر سلباً على قدرة الفرد على حل المشاكل الروتينية. انخفاض تذكر المعلومات واتخاذ القرارات يصاحب هذا التراجع أيضاً.
دراسة من مايكروسوفت وجامعة كارنيغي ميلون كشفت أن الأشخاص الذين يوكلون مهامهم تماماً للذكاء الاصطناعي يعانون من تراجع ملحوظ في مهارات التفكير الناقد. من لديهم ثقة عالية جداً في قدرات هذه الأدوات يميلون إلى التراجع عن ممارسة مهاراتهم العقلية.
تقليل التنوع الفكري والإبداع
أبرزت الدراسات أيضاً أن الاعتماد على الذكاء الاصطناعي يقلل من تنوع الأفكار. عندما تستخدم مجموعة الأداة نفسها، تصبح المخرجات متشابهة نسبياً. هذا يُضعف الإبداع ويؤدي إلى ما وصفه الباحثون بـ”استنساخ الأفكار”.
في بيئات العمل التي تتطلب حلولاً مبتكرة، هذا يشكل تهديداً حقيقياً للإنتاجية الفعلية. تقليل الأفكار الأصيلة والحلول المخصصة يُحدث فجوة في جودة الخدمات والمنتجات.
فقدان “ذاكرة المهارة” وعدم القدرة على التكيف
يشير الباحثون إلى مشكلة أعمق تُسمى “فقدان ذاكرة المهارة”. الأشخاص الذين يتخلون عن ممارسة مهاراتهم في التحليل والكتابة والتخطيط يعانون لاحقاً من صعوبة شديدة في استعادتها. حتى لو كانت الأدوات تعمل بكفاءة معظم الوقت، فإنها تتركنا عرضة للأخطاء الجسيمة عندما لا نستطيع الاعتماد عليها.
ضربت الدراسات أمثلة صادمة من مجال الطب. أطباء يثقون بتشخيصات أنظمة الذكاء الاصطناعي لدرجة تغيير حكمهم الطبي. رغم أن تقديرهم الشخصي كان أكثر دقة. الأسوأ أننا قد لا نكتشف أخطاء الآلة لأننا لم نعد نراجع النتائج بتمعّن.
تأثيرات نفسية واجتماعية إضافية
كشفت الأبحاث عن تأثيرات نفسية واضحة. تُلاحظ انخفاضات في المشاركة الذهنية لدى مستخدمي الذكاء الاصطناعي. يرافقها تقصير في مدى الانتباه ومشكلات في التركيز. تراجع القدرة على تطبيق المعرفة في مواقف جديدة يضعف القدرات المهنية والأكاديمية.
مخاوف أخلاقية واجتماعية برزت أيضاً، تشمل انخفاض التفاعل بين البشر والعزلة الاجتماعية المتزايدة.
توصيات الباحثين والمسار المستقبلي
أوصت دراسة MIT بإجراء مزيد من الدراسات المعمقة لفهم التأثيرات العصبية والمعرفية. شدّد الباحثون على أهمية التريث في تبنّي الذكاء الاصطناعي كتطور إيجابي مطلق.
يؤكد الخبراء أن الحل ليس في الاستغناء الكامل عن هذه الأدوات، بل في استخدام متوازن ومدروس. يجب الحفاظ على ممارسة المهارات العقلية الأساسية بانتظام. الذكاء الاصطناعي يجب أن يكون مساعداً وليس بديلاً عن التفكير الإنساني المستقل.




