Politique

Le projet de loi sur la pornographie AI deepfake exigerait des géants de la tech de surveiller et de supprimer les images.

Le boom des images pornographiques deepfake AI entraîne une réaction des législateurs américains

Les parlementaires du Capitole se démènent pour faire face à l’essor des images pornographiques deepfake AI, qui ont ciblé tout le monde, des célébrités aux lycéens.

Désormais, un nouveau projet de loi cherchera à rendre les entreprises de médias sociaux responsables de la surveillance et de la suppression des images pornographiques deepfake publiées sur leurs sites. La mesure criminaliserait la publication ou la menace de publication de pornographie deepfake.

Le sénateur Ted Cruz, républicain du Texas, est le principal sponsor du projet de loi. Le bureau de Cruz a fourni à CNBC des détails exclusifs sur le projet de loi.

La loi Take It Down Act obligerait également les opérateurs de plateformes de médias sociaux à mettre en place un processus de suppression des images dans les 48 heures suivant la réception d’une demande valide de la victime. De plus, les sites devraient également faire des efforts raisonnables pour supprimer toutes les autres copies des images, y compris celles partagées dans des groupes privés.

La tâche d’appliquer ces nouvelles règles incomberait à la Federal Trade Commission, qui réglemente les règles de protection des consommateurs.

La législation de Cruz sera officiellement introduite mardi par un groupe bipartisan de sénateurs. Ils seront rejoints au Capitole par des victimes de pornographie deepfake, y compris des lycéens.

L’essor des images générées par l’IA non consensuelles a impacté des célébrités comme Taylor Swift, des politiciens comme la représentante Alexandria Ocasio-Cortez et des lycéens dont les camarades ont pris des photos de leur visage et, en utilisant des applications et des outils d’IA, créé des photos nues ou pornographiques.

"En créant un niveau de jeu équitable au niveau fédéral et en mettant la responsabilité sur les sites web d’avoir en place des procédures pour supprimer ces images, notre projet de loi protégera et autonomisera toutes les victimes de ce crime odieux", a déclaré Cruz dans un communiqué à CNBC.

Confrontation des projets de loi du Sénat

En 2023, les producteurs de pornographie deepfake ont augmenté leur production de 464 % d’une année sur l’autre, selon un rapport de 2023 de Home Security Heroes.

Pourtant, alors qu’il y a un large consensus au Congrès sur la nécessité de s’attaquer à la pornographie deepfake AI, il n’existe aucun accord sur la manière de le faire.

Au lieu de cela, deux projets de loi concurrents sont présents au Sénat.

Le sénateur Dick Durbin, démocrate de l’Illinois, a introduit en début d’année un projet de loi bipartisan qui permettrait aux victimes de deepfakes non consensuels de poursuivre en justice les personnes qui détenaient, créaient, possédaient ou distribuaient l’image.

En vertu du projet de loi de Cruz, la pornographie deepfake AI est traitée comme un contenu en ligne extrêmement offensant, ce qui signifie que les entreprises de médias sociaux seraient responsables de la modération et de la suppression des images.

Lorsque Durbin a tenté d’obtenir un vote au sol sur son projet de loi la semaine dernière, la sénatrice Cynthia Lummis a bloqué le projet de loi, affirmant qu’il était "trop vaste dans sa portée" et pourrait "étouffer l’innovation technologique américaine".

Durbin a défendu son projet de loi, affirmant qu’"il n’y a pas de responsabilité en vertu de cette proposition de loi pour les plates-formes technologiques".

Lummis est l’une des co-sponsors originaux du projet de loi de Cruz, aux côtés de la sénatrice républicaine Shelley Moore Capito et des sénateurs démocrates Amy Klobuchar, Richard Blumenthal et Jacky Rosen.

Le nouveau projet de loi intervient également alors que le leader de la majorité au Sénat, Chuck Schumer, démocrate de New York, pousse sa chambre à avancer sur la législation sur l’IA. Le mois dernier, un groupe de travail sur l’IA a publié une "feuille de route" sur les questions clés de l’IA, y compris le développement d’une législation pour lutter contre la "distribution non consensuelle d’images intimes et d’autres deepfakes nocifs".