À ces heures-là, Taylor Swift est introuvable sur X (anciennement Twitter) : le réseau social bloque les recherches sans donner d'explications. Et l'explication se trouve dans les photos nues de Taylor sans donner d'explications. Mais il y a une explication. C'est la réaction de X face à l'essor des recherches après la publication de photos sexuellement explicites du chanteur créées avec l'intelligence artificielle. À l'heure actuelle, si vous recherchez « Taylor Swift » ou « Taylor Swift AI » sur X, vous pouvez voir le message « Quelque chose s'est mal passé ». X a tenté de bloquer les recherches individuelles de photos deepfake, mais a probablement dû faire un choix plus drastique pour des raisons de timing.
LIRE AUSSI
Mais il suffit d’un petit effort pour contourner le pâté de maisons. "Taylor AI Swift" ou simplement mettre son nom entre guillemets ont tous deux renvoyé des résultats au moment d'écrire ces lignes. Même l'ajout d'un autre mot à l'un des termes de recherche apparemment bloqués donne des résultats. De plus, les images apparaissent toujours dans l'onglet Média.
X a publié une déclaration près d'un jour après la publication des images, affirmant qu'il « supprimait activement toutes les images identifiées » et prenait des mesures contre les comptes les publiant. Le site interdit explicitement la nudité non consensuelle et les médias synthétiques et manipulés.
Les médias rapportent que Swift envisage d'intenter une action en justice contre les sites hébergeant des images créées avec Microsoft Designer. Le PDG de Microsoft, Satya Nadella, a qualifié les deepfakes d'« alarmants et terribles » dans une interview avec NBC Nightly News, et a déclaré qu'il pensait que les entreprises d'IA devaient « agir rapidement » pour mettre en place de meilleurs systèmes de sécurité.
LIRE PLUS D'ACTUALITÉS DE DIVERTISSEMENT