Taylor Swift dépouillée de l'IA est devenue le sujet viral de ces dernières heures. De fausses images pornographiques de Taylor Swift générées grâce à l'intelligence artificielle circulent sur les réseaux sociaux. Des images qui ont incité les Swifties, ses fans les plus fidèles, à réclamer désormais une régulation par l'IA de la création non consensuelle d'images classées R. Les images en question – connues sous le nom de « deepfakes » – montrent Swift dans diverses positions lors d'un match des Chiefs de Kansas City, une référence claire au petit ami Travis Kelce qui joue dans cette équipe.
LIRE AUSSI
Il n'était pas immédiatement clair qui avait créé les images ou qui les avait partagées en premier sur X, même si "Taylor Swift AI" était à la mode sur la plateforme jeudi matin, avec des milliers de publications sur le sujet. Les Swifties se sont alors regroupés et ont tenté d'enterrer les images en partageant un afflux de messages positifs sur le chanteur de 34 ans. Faisant ainsi disparaître les images contestées dans les profondeurs du web.
« Comment se fait-il que cela ne soit pas considéré comme une agression sexuelle ? » a demandé à l'utilisateur «Quand j'ai vu les photos IA de Taylor Swift, je n'en croyais pas mes yeux. Ces images d’IA sont dégoûtantes », a déclaré un autre. D’autres fans scandaleux de Swift ont qualifié celui qui a créé le « dégoûtant » et des cas comme ceux-ci de « ruiner la technologie [IA] ».
Le publiciste de Swift, Tree Paine, n'a pas immédiatement répondu aux questions posées par les médias. Mais le sujet du deepfake est un sujet brûlant sur l’agenda politique américain. Le président Joe Biden a signé un décret en octobre pour réglementer davantage l’IA qui empêche « l’intelligence artificielle générative de produire de la pédopornographie ou des images intimes non consensuelles d’individus réels ». L’ordonnance exige également que le gouvernement fédéral publie des lignes directrices « pour le filigrane ou l’étiquetage des résultats de l’intelligence artificielle générative ».
La pornographie deepfake non consensuelle a également été rendue illégale au Texas, au Minnesota, à New York, à Hawaï et en Géorgie, bien qu'elle n'ait pas réussi à arrêter la circulation d'images de nus générées par l'IA dans les lycées du New Jersey et de Floride, où des images deepfakes explicites d'étudiantes. ont été propagées par des camarades de classe masculins.
LIRE LES AUTRES NOUVELLES DU MONDE
Pour offrir les meilleures expériences, nous et nos partenaires utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations de l’appareil. Le consentement à ces technologies nous permettra, ainsi qu’à nos partenaires, de traiter des données personnelles telles que le comportement de navigation ou des ID uniques sur ce site et afficher des publicités (non-) personnalisées. Ne pas consentir ou retirer son consentement peut nuire à certaines fonctionnalités et fonctions.
Cliquez ci-dessous pour accepter ce qui précède ou faites des choix détaillés. Vos choix seront appliqués uniquement à ce site. Vous pouvez modifier vos réglages à tout moment, y compris le retrait de votre consentement, en utilisant les boutons de la politique de cookies, ou en cliquant sur l’onglet de gestion du consentement en bas de l’écran.