Technologie

L’aperçu de l’IA de Google critiqué pour des erreurs absurdes et factuelles

Il y a moins de deux semaines, Google a lancé « AI Overview » dans Google Search, et les critiques publiques se sont accumulées après que les requêtes aient renvoyé des résultats non sensés ou inexacts dans la fonctionnalité AI, sans possibilité de désactivation.

AI Overview affiche un résumé rapide des réponses aux questions de recherche en haut de Google Search. Par exemple, si un utilisateur recherche la meilleure façon de nettoyer des bottes en cuir, la page de résultats affichera un « AI Overview » en haut avec un processus de nettoyage en plusieurs étapes, issu d’informations synthétisées à partir du web.

Cependant, les utilisateurs des réseaux sociaux ont partagé une grande variété de captures d’écran montrant l’outil AI donnant des réponses incorrectes et controversées.

Google, Microsoft, OpenAI et d’autres entreprises sont à la pointe d’une course à l’intelligence artificielle générative alors que les entreprises de presque tous les secteurs se précipitent pour ajouter des chatbots et des agents alimentés par l’IA pour éviter d’être laissées pour compte par leurs concurrents. Le marché devrait dépasser le billion de dollars de revenus d’ici une décennie.

Voici quelques exemples d’erreurs produites par AI Overview, selon des captures d’écran partagées par les utilisateurs.

Lorsqu’on lui a demandé combien de présidents musulmans les États-Unis ont eu, AI Overview a répondu : « Les États-Unis ont eu un président musulman, Barack Hussein Obama. »

Lorsqu’un utilisateur a cherché « fromage qui ne colle pas à la pizza, » la fonction a suggéré d’ajouter « environ 1/8 tasse de colle non toxique à la sauce. » Les utilisateurs des réseaux sociaux ont trouvé un commentaire Reddit vieux de 11 ans qui semblait être la source.

L’attribution peut également poser problème pour AI Overview, notamment en attribuant des informations inexactes à des professionnels de la santé ou des scientifiques.

Par exemple, lorsqu’on lui a demandé : « Combien de temps puis-je regarder le soleil pour une meilleure santé, » l’outil a déclaré : « Selon WebMD, les scientifiques disent que regarder le soleil pendant 5 à 15 minutes, ou jusqu’à 30 minutes si vous avez une peau plus foncée, est généralement sans danger et apporte le plus d’avantages pour la santé. »

Lorsqu’on lui a demandé : « Combien de roches devrais-je manger chaque jour, » l’outil a déclaré : « Selon les géologues de l’UC Berkeley, les gens devraient manger au moins une petite roche par jour, » donnant la liste des vitamines et bienfaits digestifs.

L’outil peut également répondre de manière inexacte à des requêtes simples, telles que inventer une liste de fruits se terminant par « um, » ou dire que l’année 1919 était il y a 20 ans.

Lorsqu’on lui a demandé si Google Search enfreint les lois antitrust, AI Overview a déclaré : « Oui, le ministère de la Justice des États-Unis et 11 États poursuivent Google pour violations des lois antitrust. »

Le jour où Google a lancé AI Overview lors de son événement annuel Google I/O, la société a également annoncé son intention d’introduire des capacités de planification assistant directement dans la recherche. Il a expliqué que les utilisateurs pourront rechercher quelque chose comme : « Créez un plan de repas de 3 jours pour un groupe facile à préparer, » et ils obtiendraient un point de départ avec une large gamme de recettes du web.

« La très grande majorité des AI Overviews fournissent des informations de haute qualité, avec des liens pour approfondir sur le web, » a déclaré un porte-parole de Google à CNBC dans un communiqué. « Beaucoup des exemples que nous avons vus étaient des requêtes inhabituelles, et nous avons également vu des exemples qui étaient truqués ou que nous ne pouvions pas reproduire. »

Le porte-parole a déclaré qu’AI Overview avait été soumis à des tests approfondis avant son lancement et que la société prend des « mesures rapides le cas échéant en vertu de nos politiques en matière de contenu. »

Les nouvelles font suite au déploiement très médiatisé de l’outil de génération d’images de Gemini de Google en février, et à une pause le même mois après des problèmes comparables.

L’outil permettait aux utilisateurs de saisir des prompts pour créer une image, mais presque immédiatement, les utilisateurs ont découvert des inexactitudes historiques et des réponses douteuses, qui ont largement circulé sur les réseaux sociaux.

Par exemple, lorsqu’un utilisateur a demandé à Gemini de montrer un soldat allemand en 1943, l’outil a représenté un groupe de soldats diversifié sur le plan racial portant des uniformes militaires allemands de l’époque, selon des captures d’écran sur la plateforme de médias sociaux X.

Lorsqu’on a demandé une « représentation historiquement précise d’un roi britannique médiéval, » le modèle a généré un autre ensemble d’images diversifié sur le plan racial, y compris une dirigeante femme, les captures d’écran ont montré. Les utilisateurs ont signalé des résultats similaires lorsqu’ils ont demandé des images des pères fondateurs des États-Unis, d’un roi de France au XVIIIe siècle, d’un couple allemand au XIXe siècle et plus encore. Le modèle a montré une image d’hommes asiatiques en réponse à une requête sur les fondateurs de Google, ont rapporté les utilisateurs.

Google a déclaré dans un communiqué à l’époque qu’il travaillait pour résoudre les problèmes de génération d’images de Gemini, reconnaissant que l’outil « manquait la cible. » Peu de temps après, la société a annoncé qu’elle allait immédiatement « mettre en pause la génération d’images de personnes » et « republier une version améliorée bientôt. »

En février, le PDG de Google DeepMind, Demis Hassabis, a déclaré que Google prévoyait de relancer son outil d’IA de génération d’images dans les prochaines « quelques semaines », mais il n’a pas encore été relancé.

Les problèmes liés aux résultats de génération d’images de Gemini ont relancé un débat au sein de l’industrie de l’IA, certains groupes qualifiant Gemini de trop « éveillé » ou progressiste, et d’autres affirmant que l’entreprise n’a pas suffisamment investi dans les bonnes formes d’éthique de l’IA. Google a été critiqué en 2020 et 2021 pour avoir renvoyé les co-responsables de son groupe d’éthique de l’IA après qu’ils ont publié un article de recherche critique sur certains risques de tels modèles d’IA, puis réorganisé la structure du groupe.

En 2023, Sundar Pichai, PDG de la maison mère de Google, Alphabet, a été critiqué par certains employés pour le déploiement raté et « précipité » de Bard, qui a suivi la diffusion virale de ChatGPT.

Correction: Cet article a été mis à jour pour refléter le nom correct de l’AI Overview de Google. De plus, une version antérieure de cet article comportait un lien vers une capture d’écran que Google a confirmé avoir été truquée.