رقابة أنظمة الذكاء الاصطناعي على منصات التواصل أكثر تشددا من الموظفين
بعد إعلان الأمريكي جيوفري هينتون "الأب الروحي" للذكاء الاصطناعي والتعلم الآلي ندمه على تطوير هذه التكنولوجيا بسبب مخاطرها، تزايدت التحذيرات من هذه المخاطر.
وقال هينتون الذي أعلن استقالته من عمله في شركة التكنولوجيا وخدمات الإنترنت الأمريكية "جوجل" في أوائل مايو الحالي إن الذكاء الاصطناعي يمكن أن يؤدي إلى فقدان أعداد كبيرة من الوظائف التي سيمكن تأديتها بالذكاء الاصطناعي بدلا من البشر.
وجاء إعلان هينتون عن مخاوفه بعد توقيع رؤساء شركات التكنولوجيا في الولايات المتحدة، خطابا يدعو إلى وقف تطوير تكنولوجيا الذكاء الاصطناعي لمدة ستة أشهر، خوفا من "تطوير عقول اصطناعية يمكن أن تصبح أذكى وأكثر عددا لكي تحل محلنا وتتفوق علينا .. وبعد ذلك نواجه خطر فقدان السيطرة على الحضارة الإنسانية".
في المقابل أظهرت دراسة أكاديمية نشرتها مجلة "ساينس أدفانسز" أن أحكام أنظمة الذكاء الاصطناعي المستخدمة في تقييم المشاركات على مواقع التواصل الاجتماعي يمكن أن تكون أقسى من حكم المراجعين البشر.
يذكر أنه يتم استخدام تقنيات الذكاء الاصطناعي بدلا من البشر لمراجعة الشكاوى والتقارير التي يرسلها مستخدمو منصات التواصل الاجتماعي ضد المحتوى المنشور على المنصات، لكن غالبا ما لا تستطيع هذه التقنيات اتخاذ القرار المناسب بشأن التزام المنشورات على المنصة بالقواعد المقررة بحسب "الألمانية".
وأضاف الباحثون أنه من المحتمل أن تكون أحكام أنظمة الذكاء الاصطناعي على المنشورات "مختلفة وأكثر تشددا من أحكام الموظفين البشر".
وقال ميرزه جاسيمي الأستاذ المساعد في معهد ماساشوستس للتكنولوجيا "إم.آي.تي"، "أعتقد أن أغلب الباحثين في مجال الذكاء الاصطناعي والتعلم الآلي يفترضون أن تقييمات البشر للبيانات والمنشورات تكون متحيزة، لكن نتيجة هذه الدراسة تكشف عن شيء أسوأ. فهذه الأنظمة الآلية لا تعيد فقط إنتاج التقييمات البشرية المتحيزة، وإنما تعاني من وجود ثغرات في البيانات التي تعتمد عليها" في إصدار التقييمات.
وحذر جاسيمي قائلا "سينتهي بنا الأمر وقد أصبح لدينا أنظمة ذكاء اصطناعي أكثر تشددا في التعامل مع محتوى منصات التواصل الاجتماعي من المراقبين البشر. فالمراقبون البشر يستطيعون رصد الفروقات الطفيفة بين الرسائل، لكن نماذج الذكاء الاصطناعي لا تفعل ذلك".