Technologie

L’IA de Google DeepMind qui joue aux jeux aborde une nouvelle faille dans les chatbots

Il y a plusieurs années, bien avant que ChatGPT ne commence à bavarder, Google a développé un tout autre type de programme d’intelligence artificielle appelé AlphaGo, qui a appris à jouer au jeu de go avec une compétence surhumaine grâce à une pratique incessante. Les chercheurs de l’entreprise ont récemment publié une recherche qui combine les capacités d’un grand modèle linguistique (l’IA derrière les chatbots d’aujourd’hui) avec celles d’AlphaZero, successeur d’AlphaGo capable de jouer aux échecs, pour résoudre des preuves mathématiques très complexes.

Leur nouvelle création frankensteinienne, surnommée AlphaProof, a démontré ses compétences en abordant plusieurs problèmes de l’Olympiade Internationale de Mathématiques de 2024 (IMO), une compétition prestigieuse pour les lycéens. AlphaProof utilise le modèle linguistique Gemini pour convertir des questions de mathématiques formulées naturellement en un langage de programmation appelé Lean. Cela fournit la nourriture d’entraînement pour un deuxième algorithme apprenant, par essais et erreurs, à trouver des preuves pouvant être confirmées comme correctes.

Les chercheurs ont trouvé que leurs deux programmes de mathématiques pouvaient fournir des preuves pour les énigmes de l’IMO aussi bien qu’un médaillé d’argent le pourrait. Les programmes ont résolu deux problèmes en algèbre et un problème de théorie des nombres sur six au total. Ils ont résolu un problème en quelques minutes mais ont mis jusqu’à plusieurs jours pour résoudre d’autres problèmes. Google DeepMind n’a pas divulgué la puissance informatique qu’elle a utilisée pour résoudre les problèmes.

Google DeepMind appelle l’approche utilisée pour AlphaProof et AlphaGeometry “neuro-symbolique” car elles combinent l’apprentissage machine pur d’un réseau neuronal artificiel, la technologie qui sous-tend la plupart des progrès récents en matière d’IA, avec le langage de programmation conventionnel.

En effet, la recherche soulève la possibilité de remédier aux pires tendances des grands modèles linguistiques en appliquant la logique et le raisonnement de manière plus pragmatique. Aussi miraculeux que les grands modèles linguistiques puissent être, ils ont souvent du mal à saisir même les mathématiques de base ou à raisonner de manière logique.

À l’avenir, la méthode neuro-symbolique pourrait fournir un moyen pour les systèmes d’IA de transformer les questions ou les tâches en une forme qui peut être raisonnée de manière à produire des résultats fiables. OpenAI est également censé travailler sur un tel système, sous le nom de code “Strawberry”.

Cependant, il y a une limitation clé avec les systèmes révélés aujourd’hui, comme le reconnaît Silver. Les solutions mathématiques sont soit correctes, soit incorrectes, permettant à AlphaProof et AlphaGeometry de travailler jusqu’à la bonne réponse. De nombreux problèmes du monde réel – comme trouver l’itinéraire idéal pour un voyage, par exemple – ont de nombreuses solutions possibles, et celle qui est idéale peut ne pas être claire. Silver note que la solution pour les questions plus ambiguës pourrait être pour un modèle linguistique de tenter de déterminer ce qui constitue une réponse “correcte” pendant l’entraînement.

Silver tient également à préciser que Google DeepMind ne mettra pas les mathématiciens humains au chômage. Il déclare : “Nous visons à fournir un système qui peut prouver n’importe quoi, mais ce n’est pas la fin de ce que font les mathématiciens. Une grande partie des mathématiques consiste à poser des problèmes et à trouver quelles sont les questions intéressantes à poser. Vous pourriez considérer cela comme un autre outil du type règle à calcul ou calculatrice ou outils de calcul.”