برنامجا”غوغل” يحلاّن مسائل الأولمبياد الدولي للرياضيات 2024
تمكّن برنامجان للذكاء الاصطناعي من مختبر “غوغل ديب مايند” للأبحاث التابع لشركة “غوغل” الأميركية من حلّ عدد من مسائل الأولمبياد الدولي للرياضيات 2024، مع أنّ الأنظمة المماثلة لم تثبت بعد فعاليتها في ما يتعلق بالتفكير المنطقي.
وتولى نموذجا “ألفا بروف” (AlphaProof) و”ألفا جيومتري 2″ (AlphaGeometry 2) حلّ أربع من المسائل الست التي تضمنتها المسابقة الدولية لهذا العام والمخصصة لتلاميذ المدارس الثانوية، ووصلا إلى مستوى الفائز بالميدالية الفضية، محققَين سابقة، بحسب بيان لـ “غوغل”.
وفي التفاصيل أنّ برنامج “ألفا بروف” حلّ مسألتين جبريتين ومسألة حسابية واحدة، بينما تولى برنامج “ألفا جيومتري 2” حل مسألة هندسية واحدة.
وأُقيمت الدورة الـ65 من الأولمبياد الدولي للرياضيات في المملكة المتحدة في الفترة من 11 إلى 22 جويلية الجاري.
وتضم هذه المسابقة التي تقام منذ عام 1959 تلاميذ المدارس الثانوية (وأحياناً عدداً قليلاً من طلاب الجامعات) يجري اختيارهم من نحو مئة دولة.
وسبق أن نجحت النسخة الأولى من “ألفا جيومتري” في حلّ 25 مسألة هندسية في الدورات السابقة من الأولمبياد من إجمالي 30 مسألة، وفق ما ذكرت مجلة “نيتشر” العلمية.
ورأت “غوغل” في البيان أنّ “هذه النتائج تفتح آفاقاً جديدة في مجال التفكير الرياضي”،و”تقترح مستقبلاً يتعاون فيه علماء الرياضيات والذكاء الاصطناعي لحل المسائل المعقدة”.
وتواجه النماذج اللغوية الكبيرة، وهي المنتجات الرئيسية للذكاء الاصطناعي، صعوبةً كبيرةً في التفكير عند تقديم اختبارات منطق إليها، بحسب دراسة نشرت في حزيران/يونيو في مجلة “أوبن ساينس” التابعة لمؤسسة “رويال سوساييتي” البريطانية.
ولاحظت هذه الدراسة أنّ برنامجَي “تشات جي بي تي 3,5″ و”تشات جي بي تي 4” من “أوبن إيه آي”، و”بارد” من “غوغل” و”كلود 2″ من “أنثروبيك” وثلاث نسخ من برنامج “لاما” من “ميتا”، قد “استجابت بطرق متفاوتة واستندت إلى تفكير غير منطقي في كثير من الأحيان”.