الروبوتات واستشراف المستقبل.. سلطة جديدة في زمن البيانات

تزايد الاعتماد على الخوارزميات والذكاء الاصطناعي لاستشراف المستقبل.

فريق التحرير
الروبوتات واستشراف المستقبل.. سلطة جديدة في زمن البيانات

ملخص المقال

إنتاج AI

يتناول المقال تزايد الاعتماد على الخوارزميات والذكاء الاصطناعي في استشراف المستقبل، ويحلل ثلاثة كتب نقدية تطرح تساؤلات حول ثقافة "المستقبل المحسوب"، محذرة من أن هذه النماذج قد تعيد إنتاج التحيزات التاريخية وتمنح وهم التخلص من المسؤولية الأخلاقية.

النقاط الأساسية

  • تزايد الاعتماد على الخوارزميات والذكاء الاصطناعي لاستشراف المستقبل.
  • الخوارزميات ليست محايدة وتعيد إنتاج التحيزات التاريخية.
  • الاعتماد على النماذج يمنح وهم التخلص من المسؤولية الأخلاقية.

في عالم مشغول بالمستقبل أكثر من أي وقت مضى، يتزايد اعتماد الحكومات والشركات وحتى الأفراد على الخوارزميات والذكاء الاصطناعي لاستشراف ما سيحدث غداً. لم تعد نماذج التنبؤ مجرد أدوات خلف الكواليس في غرف التداول أو المراكز البحثية، بل أصبحت قوة حاضرة في قرارات التوظيف، والقروض، والأمن، والسياسة العامة. من هنا ينطلق مقال “The robots who predict the future” المنشور في مجلة MIT Technology Review، الذي يقدّم قراءة نقدية لثلاثة كتب حديثة ترصد هذا الهوس العالمي بالتنبؤ، وتطرح سؤالاً جوهرياً: ماذا نخسر عندما نُسلِّم مهمة تخيّل المستقبل للآلات؟

في المقال ذكر أن التنبؤ لم يعد مجرد أداة مساعدة لصنّاع القرار، بل تحول في كثير من السياقات إلى بوصلة وحيدة تُعامل نتائجها كحقيقة شبه يقينية. الكتب الثلاثة التي يتناولها النص لا تنشغل فقط بسؤال: هل هذه التنبؤات دقيقة؟ بل بسؤال أعمق يتعلق بثقافة “المستقبل المحسوب”، أي ذلك المستقبل الذي يُختزل في جداول بيانات ورسوم بيانية ونماذج احتمالية. وفق هذا المنظور، تتحول قرارات معقدة تتداخل فيها الأخلاق والسياسة والاقتصاد إلى مخرجات رقمية تبدو محايدة، لكنها في جوهرها تحمل بصمة من صمّمها وبرمجها.

يذكّر المقال بأن الخوارزميات ليست محايدة كما نحب أن نتصورها. فهي تتغذى على بيانات تاريخية مشبعة بتحيزات عنصرية واجتماعية وجغرافية، ثم تعيد إنتاج هذه التحيزات في صورة “تنبؤات”. حين يتنبأ نموذج مثلاً باحتمال تكرار الجريمة في حي معين، فهو في الواقع يكرّر سردية أمنية تشكلت عبر سنوات من الممارسات الشرطية غير المتكافئة. وعندما يُستخدم نموذج آخر لتقييم أهلية شخص للحصول على قرض، فإن بياناته قد تحمل آثار تمييز اقتصادي طويل الأمد بحق فئات معينة. هكذا يصبح “المستقبل” الذي ترسمه الخوارزميات ليس فتحاً جديداً، بل امتداداً للماضي بأدوات أكثر إقناعاً.

المقال يذهب أبعد من ذلك، فيشير إلى أن الاعتماد على هذه النماذج يمنحنا وهم التخلص من المسؤولية. عندما تُبنى سياسة عامة أو قرار أمني على “ما يقوله النموذج”، فإن صانع القرار يجد لنفسه غطاءً تقنياً يخفف عنه عبء الاختيار الأخلاقي. بدلاً من أن يكون السؤال: ما القرار العادل أو الأنسب لمجتمع معقد؟ يتحول النقاش إلى: ما الذي تشير إليه المؤشرات الاحتمالية؟ بهذا المعنى، لا تعود الخوارزميات مجرد أدوات، بل تتحول إلى ما يشبه “أنبياء علميين” نبحث في مخرجاتهم عن يقين مفقود في عالم مضطرب.

هذا التقديس غير المعلن للتنبؤات الآلية يحمل خطراً مضاعفاً، كما يحذر المقال. فحين تخطئ هذه النماذج ــ وهي حتماً تخطئ ــ فإن حجم الخطأ يكون أكبر بكثير من أخطاء التقدير الفردية أو البشرية التقليدية، لأن القرار المبني عليها غالباً ما يكون واسع النطاق ويطال حياة أعداد كبيرة من الناس. مثال ذلك أنظمة التنبؤ بالجريمة، أو أدوات تقييم المخاطر في المحاكم، أو نماذج فرز المتقدمين للوظائف على نطاق وطني أو عالمي. عند هذه النقطة، يصبح “الخطأ التقني” قضية عدالة اجتماعية وحقوق إنسان، لا مجرد خلل برمجي يمكن تصحيحه في تحديث قادم.

مع ذلك، لا يقدّم المقال موقفاً عدائياً من التنبؤ أو من الذكاء الاصطناعي بحد ذاته. هو لا يدعو إلى التخلي عن النماذج أو العودة إلى القرارات الغريزية، بل يطالب بوضع التنبؤ في حجمه الطبيعي كأداة ضمن منظومة أوسع من الحكم البشري والتفكير النقدي. الكتب التي يستعرضها النص تدعو إلى مقاربة أكثر تواضعاً: نعم، يمكن للخوارزميات أن تساعدنا على رؤية أنماط لا نلحظها وحدنا، لكنها لا تستطيع أن تحسم عنا الأسئلة الأخلاقية والاختيارات السياسية التي تتجاوز الحسابات الرقمية.

Advertisement