Technologie

Google admet que sa fonction de recherche de synthèse de l’IA a merdé

Lorsque des réponses bizarres et trompeuses aux requêtes de recherche générées par la nouvelle fonctionnalité AI Overview de Google sont devenues virales sur les réseaux sociaux la semaine dernière, la société a émis des déclarations qui ont généralement minimisé l’idée que la technologie avait des problèmes. Jeudi dernier, la responsable de la recherche de l’entreprise, Liz Reid, a admis que les erreurs avaient mis en lumière des domaines nécessitant des améliorations, écrivant : « Nous voulions expliquer ce qui s’est passé et les mesures que nous avons prises. »

Le post de Reid faisait directement référence à deux des résultats AI Overview les plus viraux et complètement incorrects. L’un voyait les algorithmes de Google recommander de manger des roches car cela « peut être bon pour vous », et l’autre suggérait d’utiliser de la colle non toxique pour épaissir la sauce à pizza.

Manger des roches n’est pas un sujet sur lequel beaucoup de gens écrivent ou posent des questions en ligne, donc il n’y a pas beaucoup de sources sur lesquelles un moteur de recherche peut s’appuyer. Selon Reid, l’outil AI a trouvé un article du site satirique The Onion qui avait été repris par une entreprise de logiciels, et il a mal interprété l’information comme étant factuelle.

Quant au fait que Google recommande à ses utilisateurs de mettre de la colle sur la pizza, Reid a attribué l’erreur à un manque d’humour. « Nous avons vu des AI Overviews avec des contenus sarcastiques ou trolls de forums de discussion », a-t-elle écrit. « Les forums sont souvent une excellente source d’informations authentiques de première main, mais dans certains cas, ils peuvent entraîner des conseils moins utiles, comme l’utilisation de colle pour faire adhérer le fromage à la pizza. »

Il vaut probablement mieux ne pas dresser de menu de dîner généré par l’IA sans le lire attentivement au préalable.

Reid a également suggéré qu’il serait injuste de juger la qualité de la nouvelle approche de recherche de Google basée sur des captures d’écran virales. Elle a affirmé que l’entreprise avait effectué des tests approfondis avant son lancement et que les données de l’entreprise montrent que les gens apprécient les AI Overviews, notamment en indiquant que les utilisateurs sont plus susceptibles de rester sur une page découverte de cette manière.

Pourquoi ces échecs embarrassants ? Reid a décrit les erreurs qui ont attiré l’attention comme le résultat d’un audit à l’échelle d’Internet qui n’était pas toujours bien intentionné. « Il n’y a rien de tel que d’avoir des millions de personnes utilisant la fonctionnalité avec de nombreuses recherches inédites. Nous avons également vu de nouvelles recherches non sensées, apparemment destinées à produire des résultats erronés. »

Google affirme que certaines captures d’écran largement diffusées d’AI Overviews mal interprétés étaient fausses, ce qui semble être vrai d’après les propres tests de WIRED. Par exemple, un utilisateur sur X a publié une capture d’écran qui semblait être un AI Overview répondant à la question « Un cafard peut-il vivre dans votre pénis ? » avec une confirmation enthousiaste du moteur de recherche que c’est normal. Le post a été vu plus de 5 millions de fois. Cependant, après un examen plus approfondi, le format de la capture d’écran ne correspondait pas à la façon dont les AI Overviews sont réellement présentés aux utilisateurs. WIRED n’a pas pu recréer un résultat similaire.

Et ce ne sont pas seulement les utilisateurs sur les réseaux sociaux qui ont été trompés par des captures d’écran trompeuses de faux AI Overviews. Le New York Times a publié une correction à propos de son article sur la fonctionnalité et a précisé que les AI Overviews n’ont jamais suggéré aux utilisateurs de sauter du pont du Golden Gate s’ils souffrent de dépression, c’était juste un sombre mème sur les réseaux sociaux. « D’autres ont laissé entendre que nous avons renvoyé des résultats dangereux pour des sujets comme laisser les chiens dans les voitures, fumer pendant la grossesse et la dépression », a écrit Reid jeudi. « Ces AI Overviews n’ont jamais été affichés. »

Pourtant, le post de Reid laisse également entendre que tout n’était pas parfait avec la forme originale de la nouvelle mise à niveau de recherche de Google. La société a apporté « plus d’une douzaine d’améliorations techniques » aux AI Overviews, a-t-elle écrit.

Seules quatre sont décrites : une meilleure détection des « requêtes non sensées » ne méritant pas un AI Overview ; faire en sorte que la fonctionnalité repose moins fortement sur le contenu généré par les utilisateurs de sites comme Reddit ; proposer moins souvent des AI Overviews dans des situations où les utilisateurs ne les ont pas trouvés utiles ; et renforcer les balises qui désactivent les résumés AI sur des sujets importants comme la santé.

Il n’a pas été mentionné dans le blog de Reid un retour en arrière important sur les résumés AI. Google affirme qu’il continuera à surveiller les retours des utilisateurs et à ajuster les fonctionnalités si nécessaire.