في 2025 .. العالم يتأرجح بين التقدم التكنولوجي وأخطاره
حذر تقرير صادر عن المنتدى الاقتصادي العالمي، من عالم يتأرجح بين التقدم التكنولوجي وأخطاره الجسيمة التي يمكن أن تؤدي إلى تلاشى الحدود بين ما هو تكنولوجي وما هو إنساني، وتعمل على إيجاد تحديات غير قابلة للتنبؤ.
"تقرير الأخطار العالمية 2025" ذكر أن الأدوات المبتكرة باستخدام الذكاء الاصطناعي أصبحت مصدرا لأزمات غير متوقعة، تمتد عبر الصناعات والمجتمع، واصفا هذه الأخطار بأنها أهم القضايا طويلة المدى، مشيرا إلى زيادة القلق بشأن قدرة البشر على التحكم في التكنولوجيا وتأثيراتها غير المقصودة، مثل المعلومات المضللة والتحيز الخوارزمي، حسبما ذكرت مجلة فوربس.
يقدم التقرير تحليلا شاملا للأخطار الأكثر إلحاحا التي تواجه البشرية عبر 3 آفاق زمنية مميزة، وبالاستفادة من رؤى أكثر من 900 خبير وقائد، يصنف التحليل هذه الأخطار إلى 5 مجالات: بيئية، مجتمعية، اقتصادية، جيوسياسية وتكنولوجية، كما يبرز الأخطار التكنولوجية الناتجة عن الذكاء الاصطناعي ويطرح تحديات على صعيد الحوكمة والأخلاقيات. ويؤكد تسارع التكنولوجيا الذي يضخم الأخطار والفرص، ويضع ضغوطا على قدرة البشر على إدارتها بطريقة أخلاقية.
أحد أبرز الأخطار التكنولوجية يكمن في دور الذكاء الاصطناعي في تسريع انتشار المعلومات المضللة. وقد أصبحت هذه القضية حقيقة واقعة ولها عواقب بعيدة المدى، حيث تستخدم أدوات الذكاء الاصطناعي التوليدي لتشكيل الرأي العام، وزيادة الاستقطاب المجتمعي.
الرئيس التنفيذي لشركة "أوبن إيه أي" سام ألتمان، قال خلال شهادة أمام الكونجرس: "يجب إعطاء الأولوية لتنظيم الذكاء الاصطناعي للتخفيف من أخطار إساءة استخدامه"، وهو اعتراف صارخ بالحاجة إلى حواجز أخلاقية وتنظيمية لمواجهة الأخطار المتتالية للذكاء الاصطناعي.
بحسب التقرير، لا يوجد ذكاء اصطناعي حقيقي اليوم، بل "محركات تحول" وهي أنظمة تعلم آلي مصممة لمحاكاة الذكاء عبر التعرف على الأنماط وتوليد المخرجات. هذه الأنظمة لا تفهم عالمنا وتفتقر للقدرة على تجربة وتفسير الواقع. ورغم تقدم الآلات، فهي تعمل ضمن حدود بيانات التدريب الخاصة بها، وتعالج المدخلات وتنتج المخرجات دون فهم للسياق أو العواقب، ما يوجد وهماً بالذكاء ويخفي الأخطار الكامنة في استخدامها.
وتوضح أمثلة في الآونة الأخيرة، مثل أنظمة الذكاء الاصطناعي في الرعاية الصحية، أو الخوارزميات غير العادلة في مجال التوظيف، أخطار تكليف أدوات بلا إشراف بشري باتخاذ قرارات حاسمة تنطوي على أخطاء قد تكون لها عواقب تغير الحياة.
يشير التقرير إلى التحيز الخوارزمي بوصفه خطرا متزايدا في عصر التسارع التكنولوجي هذا. من خوارزميات التوظيف إلى الشرطة التنبؤية، فإن التحيزات المضمنة في أنظمة الذكاء الاصطناعي تخاطر بإدامة عدم المساواة وتعزيز الانقسامات المجتمعية.
ويزيد التفاعل بين التكنولوجيا والاستقطاب المجتمعي من تعقيد هذا المشهد. وفي غياب الرقابة الصارمة والأطر الأخلاقية، فإن القرارات الخوارزمية قد تؤدي إلى تفاقم حالات التفاوت القائمة، وتقويض الثقة في التكنولوجيا، وتفاقم الانقسامات المجتمعية.
وعدّ التقرير أن الرواية التي تزعم أن الآلات على وشك أن تصبح مساوية للبشر تعد رواية مضللة، مبينا أن الذكاء الحقيقي يتطلب أنظمة قادرة على التفكير، وبناء السياق، واتخاذ قرارات أخلاقية ــ وهذه صفات تتطلب أكثر من البراعة الحسابية، فضلا عن الفهم الذي تفتقر إليه أنظمة اليوم بشكل أساسي.
وكلما أضفينا على هذه الأنظمة صفات بشرية، زاد خطر التخلي عن الإشراف النقدي، وخلط الكفاءة بالقدرة والراحة بالثقة.
تقرير المنتدى الاقتصادي العالمي، دعا القادة إلى التصرف بحزم لضمان أن تكون التكنولوجيا قوة للتقدم، وليست مصدرا للخطر. وطالب بإنشاء إطار متماسك لتطوير ونشر الذكاء الاصطناعي المسؤول، مشيرا إلى أن إنشاء مثل هذا الإطار يتطلب تعاونا عبر الحدود لضمان الشفافية والمساءلة.
وحث على تعزيز الوعي الرقمي من خلال التعليم لمواجهة المعلومات المضللة وتمكين الأفراد من التنقل بوعي في البيئة الرقمية.