الذكاء الاصطناعي .. هل ينسى ما تعلمه؟
عندما اكتشف براين هود أن "تشات جي بي تي" نسب إليه ماضيا إجراميا، وجد هذا السياسي الأسترالي نفسه في مواجهة معضلة ينكب المهندسون جاهدين في محاولة حلها، وتتمثل في كيفية تعليم الذكاء محو الأخطاء.
فالخيار القانوني المتمثل في تلويح براين هود في أبريل الماضي برفع دعوى تشهير على شركة "أوبن إيه آي" (منشئة "تشات جي بي تي") لا يبدو حلا مناسبا. كذلك لا يكمن الحل في إعادة ضبط معايير الذكاء الاصطناعي بالكامل، إذ إن تدريب النموذج مجددا يستغرق وطنا طويلا وهو مكلف جدا.
ويرى المختصون أن مسألة "إلغاء التعلم" أي جعل الذكاء الاصطناعي ينسى بعض ما تلقنه، ستكون بالغة الأهمية في الأعوام المقبلة، وخصوصا في ضوء التشريعات الأوروبية لحماية البيانات.
وتؤكد أستاذة علوم المعلومات في جامعة "آر إم آي تي" في ملبورن ليسا جيفن أن "القدرة على محو البيانات الموجودة في قواعد بيانات التعلم هي موضوع مهم جدا". لكنها ترى أن جهدا كبيرا لا يزال مطلوبا في هذا المجال، نظرا إلى النقص الحالي في المعرفة في شأن كيفية عمل الذكاء الاصطناعي.
ففي ظل الكم الهائل من البيانات التي يدرب الذكاء الاصطناعي عليها، يسعى المهندسون إلى حلول تتيح تحديدا أكبر، بحيث تزال المعلومات الخاطئة من مجال معرفة أنظمة الذكاء الاصطناعي بغية وقف انتشارها.
واكتسب الموضوع زخما خلال الأعوام الثلاثة أو الأربعة الأخيرة، على ما يوضح لوكالة "فرانس برس" الباحث الخبير في هذا المجال مقداد كرمانجي من جامعة وارويك البريطانية.
وعملت "جوجل ديب مايند" المتخصصة في الذكاء الاصطناعي على معالجة هذه المشكلة، إذ نشر خبراء من الشركة الأمريكية الشهر الماضي مع كورمانجي، خوارزمية مخصصة لمحو البيانات في نماذج لغوية مهمة، كنموذجي "تشات جي بي تي" و"بارد" (من "جوجل").
وانكب أكثر من ألف خبير شاركوا في مسابقة أطلقتها الشركة الأمريكية على العمل بين يوليو وسبتمبر لتحسين أساليب "إلغاء تعلم" الذكاء الاصطناعي.
وتتمثل الطريقة المستخدمة المشابهة لما توصلت إليه أبحاث أخرى في هذا المجال، في إدخال خوارزمية تأمر الذكاء الاصطناعي بعدم أخذ بعض المعلومات المكتسبة في الحسبان، ولا تتضمن تعديل قاعدة البيانات.