برنامج ذكاء اصطناعي من "جوجل" يحل مسائل في الأولمبياد الدولي للرياضيات
تمكّن برنامجا ذكاء اصطناعي من مختبر "غوغل ديب مايند" للأبحاث التابع لمجموعة "غوغل" من حلّ عدد من مسائل الأولمبياد الدولي للرياضيات 2024، على ما أعلن المختبر الخميس، مع أن الأنظمة المماثلة لم تثبت بعد فعاليتها في ما يتعلق بالتفكير المنطقي.
وتولى نموذجا "ألفا بروف" (AlphaProof) و"ألفا جيومتري 2" (AlphaGeometry 2) حلّ أربع من المسائل الست التي تضمنتها هذه السنة هذه المسابقة الدولية المخصصة لتلاميذ المدارس الثانوية، ووصلا إلى مستوى الفائز بالميدالية الفضية، محقِقَين سابقةً، بحسب "غوغل".
وفي التفاصيل أن "ألفا بروف" حلّ مسألتين جبريتين ومسألة حسابية واحدة، بينما تولى "ألفا جيومتري 2" حل مسألة هندسية واحدة.
وأقيمت الدورة الخامسة والستون من الأولمبياد الدولي للرياضيات في المملكة المتحدة في الفترة من 11 إلى 22 يوليو.
وتضم هذه المسابقة التي تقام منذ العام 1959 تلاميذ المدارس الثانوية (وأحياناً عدداً قليلاً من طلاب الجامعات) يجري اختيارهم من نحو مئة دولة.
وسبق أن نجحت النسخة الأولى من "ألفا جيومتري" في حل 25 مسألة هندسية في الدورات السابقة من الأولمبياد من إجمالي 30 مسألة، وفق ما ذكرت مجلة "نيتشر" العلمية في يناير.
ورأت "غوغل" في بيان أن "هذه النتائج تفتح آفاقاً جديدة في مجال التفكير الرياضي وتقترح مستقبلاً يتعاون فيه علماء الرياضيات والذكاء الاصطناعي لحل المسائل المعقدة".
وتواجه النماذج اللغوية الكبيرة، وهي المنتجات الرئيسية للذكاء الاصطناعي، صعوبة كبيرة في التفكير عند تقديم اختبارات منطق إليها، بحسب دراسة نشرت في يونيو في مجلة "أوبن ساينس" التابعة لمؤسسة "رويال سوساييتي" البريطانية.
ولاحظت هذه الدراسة أن برنامجَي "تشات جي بي تي 3,5" و"تشات جي بي تي 4" من "أوبن إيه آي"، و"بارد" من "غوغل" و"كلود 2" من "أنثروبيك" وثلاث نسخ من برنامج "لاما" من "ميتا"، استجابت بطرق متفاوتة واستندت إلى تفكير غير منطقي في كثير من الأحيان.