الذكاء الاصطناعي .. ماذا عن الأخلاقيات؟
يتمتع الذكاء الاصطناعي بإمكانات تقنية تنافس بعض الإمكانات الذاتية للإنسان في التعلم وتلقي المعلومات الأساسية واستيعابها، وإدراك مضامينها واستخلاص النتائج منها، وتقديم مخرجات معرفية ذكية مفيدة، إضافة إلى مخرجات ذكية توجه نظما تقنية مختلفة وتتحكم في عملها، بكفاءة وسرعة. لا يختلف الذكاء الاصطناعي عن أي تقنية أخرى في أنه سلاح ذو حدين، حد للخير وجني الفوائد، وحد للشر وإطلاق الأذى. ونظرا لأهمية هذا الذكاء والتوقعات المستقبلية حوله، راحت الدول المتقدمة، والطامحة إلى التقدم، وبينها المملكة، تضع استراتيجيات مستقبلية للاستفادة من إمكاناته والاستعداد للمستقبل بشأنه. وقد قدمنا مقالين سابقين، على هذه الصفحة، حول هذه الخطط، اهتم أولهما بالاستراتيجية الألمانية، ونشر في 15 يوليو 2021، وركز الآخر على الاستراتيجية السعودية، ونشر بعد ذلك التاريخ بأسبوع واحد.
اهتمت بعض الاستراتيجيات الوطنية للذكاء الاصطناعي بالجانبين الاجتماعي والأخلاقي لهذا الذكاء، حرصا على تفعيله كسلاح خير في خدمة الإنسان، والحد من تأثيره كسلاح شر في أذاه. وأبرز "تقرير دليل الذكاء الاصطناعي" الدوري الصادر عن جامعة ستانفورد الشهيرة عام 2023، الذي يرصد سنويا حالة هذا الذكاء في العالم، جانب الأخلاقيات فيه، كجانب رئيس بين ثمانية جوانب أساسية. وشملت هذه الجوانب كلا من: البحث والتطوير، والتقنية، والأخلاقيات، والاقتصاد، والتعليم، والحوكمة، والتعددية، وآراء العموم. ونظرا لأهمية ما ورد في هذا التقرير من حقائق وإحصائيات حول الذكاء الاصطناعي، رأينا مناقشة الجوانب ذاتها في مقالات على هذه الصفحة، للاستفادة من هذه الحقائق والإحصائيات. وقد تحدثنا في المقالين السابقين عن البحث والتطوير، والتقنية، في الذكاء الاصطناعي، وسنتحدث في هذا المقال عن الأخلاقيات.
لعلنا نبدأ حديث الأخلاقيات، بطرح متطلب رئيس من متطلبات أخلاقيات أنظمة الذكاء الاصطناعي، ألا وهو متطلب نزاهة هذه الأنظمة وموضوعيتها في التعامل مع الأفراد والمجموعات. في هذا المجال، يعرف نظام الذكاء الاصطناعي، النزيه والموضوعي، بأنه "نظام غير منحاز لأي إنسان فرد، أو مجموعة من الناس، على أساس صفات هذا الفرد أو المجموعة، حيث تكون مخرجاته نزيهة وموضوعية". وبذلك يكون على إجراءات مثل هذا النظام عدم التمييز في التعامل بين الرجل والمرأة، ولا بين الأعراق، أو الانتماءات، أو الأفكار المختلفة، أو غير ذلك.
هناك، في إطار ما سبق، مصدران رئيسان للابتعاد عن النزاهة والموضوعية، وإلحاق الضرر بأفراد أو مجموعات. مصدر منهما يتعلق بالتخصيص غير العادل، وآخر يرتبط بالجمود غير المحمود. والمقصود بالتخصيص غير العادل هو ذلك المستند إلى التفرقة بين الأفراد، أو التفرقة بين المجموعات، في تخصيص إمكانات النظام المتاحة، بحيث يستفيد منها البعض، دون الآخرين. أما المقصود بالجمود غير المحمود، فهو استدامة الاعتماد على الأسس النمطية، وعدم الاستجابة للمتغيرات، بحيث يؤدي ذلك إلى نتائج غير موضوعية تبتعد عن الصواب.
ولمتطلب النزاهة والموضوعية بعد آخر يضاف إلى ما سبق، هو بعد رفض الغش والخداع. ولعل من أبرز حالات الغش تلك المرتبطة بما يعرف "بالغش العميق"، حيث يمكن الذكاء الاصطناعي أصحاب هذا الغش من إظهار أشخاص على شاشات الأجهزة الإلكترونية المختلفة، يتحدثون في موضوعات مستهدفة، ويقولون ما لم يقولوه قط. ولعل من أبرز حالات الغش، في هذا المجال، الكلمة التي بثت "صوتا وصورة" في 22 مارس 2022، وبدت وكأن الرئيس الأوكراني يقوم بإلقائها. وتدعو هذه الكلمة الجيش الأوكراني إلى الاستسلام للجيش الروسي. لكن هذا الغش لم يستمر، وتم كشفه بسرعة عبر وسائل الذكاء الاصطناعي الكاشفة.
ونظرا لأهمية بناء الخبرة في رصد حوادث مخالفة الأخلاقيات على المستوى الدولي والعمل على مواجهتها بالأساليب المناسبة، تم إنشاء هيئة دولية مستقلة تقوم بتسجيل هذه الحوادث، والتعرف على تكرارها، وبناء الخبرة في حيثياتها. وتعرف هذه الهيئة بالاسم التالي "مستودع الحوادث المخالفة لأخلاقيات الذكاء الاصطناعي وخوارزمياته". وبلغ عدد حوادث المخالفات المسجلة، في هذا المستودع، حتى 2021، طبقا لتقرير ستانفورد المذكور أعلاه، 260 مخالفة.
في إطار مواجهة المخالفات أيضا، قام بعض الباحثين بوضع مقاييس عامة تسعى إلى كشف حوادث مخالفة الأخلاقيات من أجل العمل على الحد منها. ويهتم جانب من هذه المقاييس بتصنيف البيانات وتقسيمها تبعا لمضامينها، وحساسية هذه المضامين، من أجل المساعدة على تنظيم العمليات المرتبطة بها، وكشف المخالفات المتعلقة بشؤونها. ويتمتع جانب آخر من هذه المقاييس بنظرة تشخيصية أكثر عمقا، تعمل على مراقبة أداء نظام الذكاء الاصطناعي، وتشخيص المشكلات القائمة فيه، إن وجدت، إضافة إلى التعرف على أثره الخارجي. ورصد تقرير ستانفورد، بحوثا مختلفة عام 2022، شملت استخدام عشرة مؤشرات قياسية في تصنيف البيانات، و11 مؤشرا تشخيصيا.
برزت، إضافة إلى ما سبق، مقاييس اختصت بمجال مهم من مجالات الذكاء الاصطناعي هو مجال "معالجة اللغات الطبيعية". ومن هذه المقاييس مقياس يهتم بقياس "السمية" في النصوص اللغوية، وآخر يركز على قياس الانحياز والبعد عن النزاهة. والمقصود بالسمية في المقياس الأول هو وجود كلمات أو جمل غير مناسبة فيما تقدمه أنظمة معالجة اللغات الطبيعية الذكية، بحيث تبعد الإنسان عن استخدامها والاستفادة منها. ويقوم المقياس ببيان ذلك عبر "وسائل خاصة تضاف إلى واجهة برامج التطبيقات". أما المقياس الثاني فيعمل على "قياس الانحياز عن النزاهة في إجابات الأنظمة الذكية"، فيما يخص مختلف الصفات بين البشر، مثل الأعراق، والأشكال، والجنسيات، والثقافات، وحالات العجز البدني، والسن، وغير ذلك.
في الختام، لعل القارئ الكريم يتساءل عن الجانب الأخلاقي في الاستغناء عن الإنسان في بعض الوظائف لمصلحة وسائل الذكاء الاصطناعي. هذا أمر مهم جدا بالطبع. وهناك بشأنه حيثيات مختلفة، غالبا ما يتم ربطها بالجانب الاقتصادي الذي سنطرحه في المقال المقبل، بإذن الله. وإذا كان هناك من كلمة أخيرة، فهي أن في الذكاء الاصطناعي إمكانات كبيرة ومثيرة، وبالتأكيد غير مسبوقة، وعلينا كبشر أن نضعها، وبكل ما نستطيع، في جانب الخير، ونبتعد بها عن جانب الشر.