La propagation du contenu généré par l’IA pourrait entraîner des amendes coûteuses

AI-Généré « femelle profonde«Les matériaux inondent Internet, parfois avec des résultats dangereux. Au cours de la dernière année, l’IA a été utilisée pour faire tromper des clones de voix d’un ancien président américain et répandre de fausses images politiquement chargées représentant les enfants en catastrophes naturelles. Des images et des vidéos sexuelles non consensuelles et générées par l’AI-AI, qui laissent une trace de traumatisme impactant tout le monde lycéens à Taylor Swift. De grandes entreprises technologiques comme Microsoft et Méta ont fait quelques efforts pour identifier les cas de manipulation de l’IA Mais avec seulement un succès muet. Maintenant, les gouvernements interviennent pour essayer de découvrir la marée avec quelque chose dont ils savent un peu plus: les amendes.
Cette semaine, les législateurs en Espagne nouvelle législation avancée Cela infligerait des entreprises à 38,2 millions de dollars, soit entre 2% et 7% de leur chiffre d’affaires annuel mondial si elles ne parviennent pas à étiqueter correctement le contenu généré par l’IA. Dans les heures suivant la signature de ce projet de loi, les législateurs du Dakota du Sud a fait avancer leur propre législation Cherchant à imposer des sanctions civiles et criminelles pour les individus et les groupes qui partagent des contrefaçons profondes destinées à influencer une campagne politique. S’il passe, le Dakota du Sud deviendra le 11e État américain à adopter une législation criminalisant Deepfakes Depuis 2019. Toutes ces lois utilisent la menace de comptes bancaires potentiellement drainés comme levier d’application.
Selon Reutersle projet de loi espagnol suit les directives établies par le plus large ACT de l’UE AI Cela est officiellement entré en vigueur l’année dernière. Plus précisément, ce projet de loi vise à ajouter des dents punitives aux dispositions de la loi sur l’IA qui imposent des exigences de transparence plus strictes sur certains IA Outils considérés comme un «risque élevé». Deepfakes entrent dans cette catégorie. Ne pas étiqueter correctement le contenu généré par l’IA serait considéré comme une «infraction grave».
« L’IA est un outil très puissant qui peut être utilisé pour améliorer nos vies … ou pour diffuser une désinformation », a déclaré le ministre espagnol de la transformation numérique, Oscar Lopez, dans un communiqué envoyé à Reuters.
En plus de ses règles sur l’étiquetage DeepFake, la législation interdit également l’utilisation de soi-disant « techniques subliminales«À certains groupes classés comme vulnérables. Cela placerait également de nouvelles limites aux organisations qui tentent d’utiliser des outils de biométrie comme la reconnaissance faciale pour déduire la race ou l’orientation politique, religieuse ou sexuelle des individus. Le projet de loi doit encore être approuvé par la Chambre basse espagnole pour devenir loi. Si c’est le cas, l’Espagne deviendra le premier pays de l’UE à adopter une législation appliquant les directives de la loi sur l’IA sur Deepfakes. Il pourrait également servir de modèle à suivre d’autres nations.
Une poignée d’États américains prennent les devants sur Deepfake Enforcement
Le projet de loi du Dakota du Sud nouvellement proposé, en revanche, est plus étroitement adapté. Il oblige les individus ou les organisations à étiqueter le contenu Deepfake s’il est de nature politique et a créé ou partagé dans les 90 jours suivant une élection. La version du projet de loi qui a avancé cette semaine comprend des exemptions pour les journaux, les diffuseurs et les stations de radio, qui avaient aurait exprimé des préoccupations sur la responsabilité juridique potentielle pour le partage involontairement du contenu profond. Le projet de loi comprend également une exception pour Deepfakes qui «constituent une satire ou une parodie», une sculpture potentiellement large et difficile à définir.
Pourtant, édulcoré aussi, le projet de loi du Dakota du Sud représente le dernier ajout à un patchwork croissant de lois des États visant à limiter la propagation des Fakes Deep. Le Texas, le Nouveau-Mexique, l’Indiana et l’Oregon ont tous promulgué une législation ciblant spécifiquement les foldages profonds conçus pour influencer les campagnes politiques. Beaucoup de ces efforts ont pris de l’ampleur en 2024 après un «clone numérique» généré par l’IA de la voix du président Joe Biden appelé les électeurs dans le New Hampshire, les exhortant à ne pas participer à la primaire présidentielle de l’État. La Fakery Biden était aurait été commandé Par Steve Kramer, un consultant politique qui travaillait à l’époque pour la campagne du candidat à la présidentielle rivale Dean Phillips. Phillips a ensuite condamné le Deepfake et a affirmé qu’il n’en était pas responsable. La commission fédérale de communication, quant à elle, frapper Krammer avec une amende de 6 millions de dollars pour avoir prétendument violé La vérité dans l’identifiant de l’appelant ACT.
«Je m’attends à ce que l’action d’application de la FCC enverra un fort signal dissuasif à toute personne qui pourrait envisager d’interférer avec les élections, que ce soit par l’utilisation de robocalls illégaux, de l’intelligence artificielle ou de tout autre moyen», a déclaré le procureur général du New Hampshire, John Formella dit dans un communiqué.
Quatre États –Floride, Louisiane,, Washingtonet Mississippi—Antenaire des lois a criminalisé la distribution de contenu sexuel non consensuel et généré par l’IA. Ce type de matériel, parfois appelé «porno de vengeance» lorsqu’il est dirigé vers un individu, est la forme la plus courante de contenu profondément docile nuisible qui se propage déjà largement en ligne. Un chercheur indépendant prendre la parole avec Câblé en 2023 a estimé que 244 625 vidéos de pornographie Deepfake avaient été téléchargées sur les 35 principaux sites Web de Porn DeepFake au cours des sept dernières années. Près de la moitié de ces vidéos ont été téléchargées au cours des neuf derniers mois de cette période.
La surtension des téléchargements suggère que un générateur plus facile à utiliser et plus convaincant Outils d’IA– combinée avec un manque de garanties significatives – rendent les profondeurs non consensuelles plus courantes. Les législateurs ont également une participation personnelle dans la question. UN Étude publiée l’année dernière Par l’American Sunlight Project (ASP) a constaté qu’une femme sur six au Congrès avait été ciblée par des fans sexuels générés par l’IA.
Les efforts pour freiner les fesses profondes au niveau fédéral ont été plus lents, bien que cela puisse être sur le point de changer. Plus tôt ce mois-ci, la première dame Melania Trump s’est exprimée pour soutenir le «Avoir le coup, » un controversé Projet de loi qui ferait un crime fédéral de publier des images intimes non consensuelles (NCII) sur les plateformes de médias sociaux. S’il est adopté, le projet de loi nécessiterait également des plates-formes pour supprimer le contenu NCII – et tout doublons – avec 48 heures de celle-ci. Le projet de loi a déjà adopté le Sénat et pourrait se faire voter à la Chambre dans les semaines ou les mois à venir.
«Il est navrant d’assister aux jeunes adolescents, en particulier aux filles, aux prises avec les défis écrasants posés par un contenu en ligne malveillant, comme Deepfakes», » Melania Trump a dit. «Cet environnement toxique peut être gravement dommageable.
Le problème persistant des lois anti-fefake
Bien que l’objectif de limiter Deepfakes soit louable, les critiques s’inquiètent que certaines des lois et projets de loi soient poursuivies vont trop loin. L’Electronic Frontier Foundation (EFF) a passé des années à avertir que langue trop large Utilisé dans plusieurs lois des États ciblant les fesses politiques pourrait être manipulée par un mauvais acteur en criminalisant des publicités qui utilisent simplement de la musique dramatique ou des extraits vidéo authentiques d’une manière perçue comme préjudiciable à un candidat. EFF conteste également l’acte de reprise et d’autres comme celui-ci, ce qu’il dit crée une incitation à étiqueter faussement le discours juridique En tant que Fake non consensuel pour le faire censuré.
« Bien que la protection des victimes de ces invasions de confidentialité odieux soit un objectif légitime, les bonnes intentions ne suffisent pas à elles seules pour faire une bonne politique », a déclaré l’analyste principal de l’EFF, Joe Mullin.
Le début de 2025 pourrait marquer un point d’inflexion dans les efforts mondiaux pour lutter contre les fesseurs profondes générées par l’IA. Davantage de pays européens sont susceptibles de suivre l’exemple de l’Espagne et de proposer une nouvelle législation criminalisant la création ou la propagation de Foasfakes. Bien que les détails de ces lois puissent varier, ils sont unis en partie par les cadres sous-jacents établis dans la loi sur l’UE AI.
Pendant ce temps, les États-Unis sont sur le point d’adopter son premier projet de loi fédéral interdisant Deepfakes. Dans tous ces cas, cependant, il reste à voir à quel point les législateurs peuvent exercer ces nouveaux outils juridiques. Les entreprises technologiques à poche et les campagnes politiques ciblées par les lois poursuivront probablement des contestations judiciaires qui compensent les ressources gouvernementales. Le résultat final de ces longues batailles juridiques possibles pourrait déterminer si les lois DeepFake peuvent réellement faire ce qu’elles s’installent à accomplir sans supprimer la liberté d’expression dans le processus.