Politique

Une publicité parodique partagée par des clones d’Elon Musk imite la voix de Kamala Harris, soulevant des inquiétudes sur l’IA en politique.

Un clip vidéo utilisant un outil de clonage vocal basé sur l’intelligence artificielle pour imiter la voix de la vice-présidente Kamala Harris en train de dire des choses qu’elle n’a pas dites soulève des préoccupations quant au pouvoir de l’IA de tromper alors que le jour de l’élection est dans environ trois mois.

La vidéo a attiré l’attention après que le milliardaire de la technologie Elon Musk l’ait partagée sur sa plateforme de médias sociaux X vendredi sans indiquer explicitement qu’elle avait été initialement publiée comme parodie.

Le clip utilise de nombreuses images identiques à une vraie annonce que Harris, la probable candidate démocrate à la présidentielle, a publiée pour lancer sa campagne. Mais la fausse publicité remplace l’audio de la voix off de Harris par une voix générée par IA qui imite de manière convaincante Harris.

« Je, Kamala Harris, suis votre candidate démocrate à la présidence car Joe Biden a enfin montré sa sénilité lors du débat », dit la voix de l’IA dans la vidéo. Elle affirme que Harris est une « embauche de diversité » car elle est une femme et une personne de couleur, et elle dit qu’elle ne sait « pas la première chose sur la gestion du pays ». La vidéo conserve la marque « Harris for President ». Elle ajoute également quelques clips authentiques passés de Harris.

Mia Ehrenberg, une porte-parole de la campagne de Harris, a déclaré dans un e-mail à l’Associated Press : « Nous croyons que le peuple américain veut la vraie liberté, l’opportunité et la sécurité que la vice-présidente Harris offre ; pas les mensonges faux et manipulés d’Elon Musk et de Donald Trump ».

La vidéo largement partagée est un exemple de la façon dont des images, des vidéos ou des extraits audio générés par IA ultra-réalistes ont été utilisés à la fois pour se moquer et pour tromper en matière de politique alors que les États-Unis se rapprochent de l’élection présidentielle. Elle met en lumière comment, à mesure que des outils IA de haute qualité sont devenus beaucoup plus accessibles, il continue de manquer une action fédérale significative pour réglementer leur utilisation, laissant les règles guidant l’IA en politique largement aux États et aux plateformes de médias sociaux.

La vidéo soulève également des questions sur la meilleure manière de gérer le contenu qui brouille les frontières de ce qui est considéré comme une utilisation appropriée de l’IA, en particulier s’il tombe dans la catégorie de satire.

Le créateur original de la vidéo, un YouTuber connu sous le nom de Mr Reagan, a divulgué dès le début à la fois sur YouTube et sur X que la vidéo manipulée est une parodie. Pourtant, la publication initiale de Musk avec la vidéo, qui a eu une portée beaucoup plus large avec 130 millions de vues sur X, selon la plateforme, ne comprenait que la légende « C’est incroyable » avec un emoji riant.

Au cours du week-end, avant que Musk ne clarifie sur son profil que la vidéo était une blague, certains participants à la fonction de « note de la communauté » de X ont suggéré d’étiqueter sa publication comme manipulée. Aucune telle étiquette n’a été ajoutée, même si Musk a posté séparément sur la vidéo parodique.

Certains utilisateurs en ligne ont remis en question si sa publication initiale pourrait violer les politiques de X, qui disent que les utilisateurs « ne peuvent pas partager de médias synthétiques, manipulés ou hors contexte pouvant induire en erreur ou perturber les gens et entraîner des dommages ».

La politique comporte une exception pour les mèmes et la satire tant qu’ils ne causent pas de « confusion significative sur l’authenticité des médias ».

Chris Kohls, l’homme derrière la personnalité en ligne de Mr Reagan, a dirigé un reporter de l’AP vers une vidéo YouTube qu’il a postée tôt lundi en réponse à l’incident. Dans la vidéo YouTube, il a confirmé avoir utilisé l’IA pour créer la fausse publicité et a soutenu que c’était évidemment une parodie, avec ou sans étiquette.

Musk a soutenu Trump, l’ancien président républicain et candidat actuel, plus tôt ce mois-ci. Il n’a pas répondu à une demande de commentaire par e-mail.

Deux experts spécialisés dans les médias générés par IA ont examiné l’audio de la fausse publicité et ont confirmé que la majeure partie avait été générée à l’aide de la technologie IA.

L’un d’eux, l’expert en informatique médico-légale de l’Université de Californie à Berkeley, Hany Farid, a déclaré que la vidéo montre la puissance de l’IA générative et des deepfakes.

« La voix générée par l’IA est très bonne », a-t-il écrit dans un e-mail. « Même si la plupart des gens ne croiront pas que c’est la voix de la VP Harris, la vidéo est d’autant plus puissante lorsque les mots sont dans sa voix ».

Il a déclaré que les entreprises IA génératives qui fabriquent des outils de clonage vocal et d’autres outils IA disponibles au public devraient faire mieux pour s’assurer que leurs services ne sont pas utilisés de manière à nuire aux personnes ou à la démocratie.

Rob Weissman, co-président du groupe de défense Public Citizen, était en désaccord avec Farid, disant qu’il pensait que beaucoup de gens seraient trompés par la vidéo.

« Je suis certain que la plupart des personnes qui le voient ne pensent pas que c’est une blague », a déclaré Weissman dans une interview. « La qualité n’est pas géniale, mais elle est suffisamment bonne. Et précisément parce qu’elle alimente des thèmes préexistants qui ont circulé autour d’elle, la plupart des gens croiront qu’elle est réelle ».

Weissman, dont l’organisation a plaidé en faveur du Congrès, des agences fédérales et des États pour réglementer l’IA générative, a déclaré que la vidéo est « le type de chose dont nous avons averti ».

D’autres deepfakes générés par IA aux États-Unis et ailleurs ont tenté d’influencer les électeurs avec de la désinformation, de l’humour ou les deux. En Slovaquie en 2023, de faux extraits audio ont impersonné un candidat discutant de plans pour truquer une élection et augmenter le prix de la bière quelques jours avant le vote. En Louisiane en 2022, une publicité satirique d’un comité d’action politique superposait le visage d’un candidat à la mairie de la Louisiane sur un acteur le représentant comme un étudiant de lycée sous-performant.

Le Congrès n’a pas encore adopté de législation sur l’IA en politique, et les agences fédérales n’ont pris que des mesures limitées, laissant la plupart de la réglementation existante aux États. Plus d’un tiers des États ont créé leurs propres lois régissant l’utilisation de l’IA dans les campagnes et les élections, selon la Conférence nationale des législatures d’État.

Outre X, d’autres entreprises de médias sociaux ont également mis en place des politiques concernant les médias synthétiques et manipulés partagés sur leurs plateformes. Les utilisateurs de la plateforme vidéo YouTube, par exemple, doivent révéler s’ils ont utilisé une intelligence artificielle générative pour créer des vidéos sous peine de suspension.

En somme, l’utilisation de l’IA pour créer des contenus politiques peut être dangereuse et doit être réglementée pour éviter la désinformation et les manipulations. La responsabilité incombe aux législateurs et aux plateformes de médias sociaux de mettre en place des règles pour garantir une utilisation éthique de ces technologies.