الذكاء الاصطناعي .. آثار بعيدة على الحوكمة والتجارة والحياة المدنية

الذكاء الاصطناعي .. آثار بعيدة على الحوكمة والتجارة والحياة المدنية

ربما ستدخل الأشهر الأخيرة الذاكرة على أنها اللحظة التي ساد فيها الذكاء الاصطناعي التنبئي. ورغم أن خوارزميات التنبؤ استخدمت على مدى عقود، إلا أن إطلاق تطبيقات مثل OpenAI’s ChatGPT3- وتكاملها السريع مع محرك بحث "بينج" الذي تديره شركة "مايكروسوفت"- ربما أطلق العنان لتجاوزات فيما يتعلق بالذكاء الاصطناعي سهل الاستخدام. إذ في غضون أسابيع من إصدار ChatGPT3، اجتذب التطبيق 100 مليون مستخدم شهريا، وقد عانى كثير منهم سلبيات التطبيق- بما في ذلك الإهانات، والتهديدات، والمعلومات المضللة، وقدرة مثبتة على كتابة الشفرات الضارة. بحسب ما يرصده تقرير روبرت موجاه العضو في مجلس المستقبل العالمي لمدن الغد التابع للمنتدى الاقتصادي العالمي، ومستشار تقرير المخاطر العالمية.
إن روبوتات الدردشة التي تولد العناوين الرئيسة هي مجرد غيض من فيض. إذ تتقدم نظم الذكاء الاصطناعي الخاصة بتوليد النصوص، والكلام، والفن، والفيديوهات بوتيرة سريعة، مما له آثار بعيدة المدى في الحوكمة، والتجارة، والحياة المدنية. وليس من المستغرب أن يتدفق رأس المال إلى القطاع، حيث تستثمر الحكومات والشركات على حد سواء في الشركات الناشئة لتطوير أحدث أدوات التعلم الآلي ونشرها. وستجمع هذه التطبيقات الجديدة بين البيانات التاريخية، والتعلم الآلي، ومعالجة اللغات الطبيعية، والتعلم العميق لتحديد احتمالية الأحداث المستقبلية.
وبصورة حاسمة، لن يقتصر اعتماد برمجيات معالجة اللغات الطبيعية الجديدة ونظم الذكاء الاصطناعي التوليدي على الدول والشركات الغنية التي قادت عملية إنشائها مثل، "جوجل"، و"ميتا"، و"مايكروسوفت". بل تنتشر هذه التقنيات بالفعل في الأماكن منخفضة ومتوسطة الدخل، حيث تقدم التحليلات التنبئية لكل شيء، بما في ذلك الحد من عدم المساواة في المناطق الحضرية ومعالجة الأمن الغذائي، وعودا هائلة للحكومات والشركات والمنظمات غير الحكومية التي تعاني ضائقة مالية، وتسعى إلى تحسين الكفاءة، وإطلاق العنان للمزايا الاجتماعية والاقتصادية، لكن المشكلة هي أنه لم يكن هناك اهتمام كاف بالعوامل الخارجية السلبية المحتملة والآثار غير المقصودة لهذه التقنيات. ويتمثل الخطر الأكثر وضوحا في أن الأدوات التنبئية القوية غير المسبوقة ستعزز قدرات الأنظمة الاستبدادية فيما يتعلق بالمراقبة.
إن أحد الأمثلة التي يتم الاستشهاد بها على نطاق واسع هو "نظام الائتمان الاجتماعي" في الصين، الذي يستخدم السجلات الائتمانية، والإدانات الجنائية، والسلوك عبر الإنترنت وغيرها من البيانات لإسناد درجة لكل شخص في البلاد. ويمكن لهذه النتائج بعد ذلك تحديد ما إذا كان يمكن لشخص ما تأمين قرض، أو الوصول إلى مدرسة جيدة، أو السفر بالسكك الحديدية أو جوا، وما إلى ذلك. وعلى الرغم من وصف نظام الصين على أنه أداة لتحسين الشفافية، فإن الوجه الآخر للنظام هو الرقابة الاجتماعية.
ومع ذلك، حتى حينما تستخدم الحكومات الديمقراطية النيات ذاتها الحسنة ظاهريا، والشركات التي تركز على التأثير الاجتماعي، والمنظمات غير الربحية التقدمية الأدوات التنبئية، يمكن لهذه الأخيرة أن تولد نتائج دون المستوى الأمثل. ويمكن أن تؤدي عيوب التصميم في الخوارزميات الأساسية ومجموعات البيانات المتحيزة، إلى انتهاكات الخصوصية والتمييز القائم على الهوية. لقد أصبح هذا بالفعل قضية صارخة في العدالة الجنائية، حيث تعمل التحليلات التنبئية بصورة روتينية على إدامة الفوارق العرقية والاجتماعية والاقتصادية. فعلى سبيل المثال، صمم نظام ذكاء اصطناعي لمساعدة القضاة الأمريكيين على تقييم احتمالية العودة إلى الإجرام، الذي حدد خطأ أن المدعى عليهم من السود معرضون إلى خطر إعادة الإجرام أكثر بكثير من نظرائهم البيض.
وتتزايد أيضا المخاوف بشأن الطرق التي يمكن للذكاء الاصطناعي من خلالها تعميق التفاوتات في مكان العمل. حتى الآن، تعمل الخوارزميات التنبئية على زيادة الكفاءة والأرباح بطرق تفيد المديرين والمساهمين على حساب العمال العاديين "خاصة في اقتصاد الوظائف المؤقتة".
وفي كل هذه الأمثلة، تحمل نظم الذكاء الاصطناعي صورة مغلوطة عن المجتمع، ما يعكس تحيزاتنا وعدم المساواة ويضخمها. وكما قالت الباحثة في مجال التكنولوجيا، نانجيرا سامبولي، في ملاحظة لها، في الأغلب ما تفاقم الرقمنة المشكلات السياسية، والاجتماعية، والاقتصادية القائمة مسبقا بدلا من تحسينها. يجب أن يكون الحماس لاعتماد الأدوات التنبئية متوازنا مع الاعتبار المستنير والأخلاقي لآثارها المقصودة وغير المقصودة. وعندما تكون تأثيرات الخوارزميات القوية محل خلاف أو غير معروفة، فإن المبدأ الوقائي ينصح بعدم نشرها.
يجب ألا ندع الذكاء الاصطناعي يصبح مجالا آخر يطلب فيه صانعو القرار الصفح بدلا من الإذن. لهذا السبب دعا مفوض الأمم المتحدة السامي لحقوق الإنسان وآخرون إلى وقف اختياري لاعتماد نظم الذكاء الاصطناعي حتى يتم تحديث الأطر الأخلاقية والمتعلقة بحقوق الإنسان لمراعاة أضرارها المحتملة.
وستتطلب صياغة الأطر المناسبة التوصل إلى توافق في الآراء بشأن المبادئ الأساسية التي ينبغي أن تساعد على تصميم أدوات الذكاء الاصطناعي التنبئية واستخدامها. ولحسن الحظ، أدى السباق نحو الذكاء الاصطناعي إلى موجة موازية من الأبحاث، والمبادرات، والمعاهد، والشبكات فيما يتعل بالأخلاق. وفي حين تولى المجتمع المدني زمام المبادرة، فقد شاركت الكيانات الحكومية الدولية مثل منظمة التعاون الاقتصادي والتنمية واليونسكو في الجهود المبذولة. ودأبت الأمم المتحدة على بناء معايير عالمية للذكاء الاصطناعي الأخلاقي منذ 2021 على الأقل. وفضلا عن ذلك، اقترح الاتحاد الأوروبي قانونا للذكاء الاصطناعي- وهو أول جهد من هذا القبيل تبذله جهة تنظيمية رئيسة- ومن شأنه أن يمنع استخدامات معينة "مثل تلك التي تشبه نظام الائتمان الاجتماعي في الصين"، وأن يخضع التطبيقات الأخرى عالية المخاطر إلى متطلبات ومراقبة محددة.
حتى الآن، تركزت هذه المناقشة إلى حد كبير في أمريكا الشمالية وأوروبا الغربية. لكن الدول ذات الدخل المنخفض والمتوسط لديها احتياجاتها الأساسية ومخاوفها وأوجه عدم المساواة الاجتماعية التي تجب مراعاتها. وهناك أبحاث كثيرة تظهر أن التقنيات التي طورتها الأسواق من أجل هذه الأخيرة في الاقتصادات المتقدمة في الأغلب ما تكون غير مناسبة للاقتصادات الأقل نموا.
وإذا استوردت أدوات الذكاء الاصطناعي الجديدة واستخدمت على نطاق واسع قبل وضع هياكل الحوكمة اللازمة، فمن السهل أن تضر أكثر مما تنفع. ويجب النظر في كل هذه القضايا إذا كنا سنبتكر مبادئ عالمية حقيقية لحوكمة الذكاء الاصطناعي.
وإدراكا لهذه الثغرات، أطلق معهد Igarapé ومنظمة New America أخيرا فريق عمل عالمي جديد معني بالتحليلات التنبئية للأمن والتنمية. وستجمع فرقة العمل بين دعاة الحقوق الرقمية، وشركاء القطاع العام، ورجال الأعمال في مجال التكنولوجيا، وعلماء الاجتماع من الأمريكتين، وإفريقيا، وآسيا، وأوروبا، بهدف تحديد المبادئ الأولى لاستخدام التقنيات التنبئية في مجالي السلامة العامة والتنمية المستدامة في جنوب الكرة الأرضية.

الأكثر قراءة