If Taylor Swift Can’t Defeat Deepfake Porn, No One Can
Si quelqu'un peut Rassemblez-vous dans une base, c'est Taylor Swift.
Lorsqu'elles sont sexuellement explicites, probablement générées par l'AI, de fausses images de Swift ont circulé sur les réseaux sociaux cette semaine, cela a galvanisé ses fans. Swifties a trouvé des phrases et des hashtags liés aux images et les a inondées de vidéos et de photos de la performance rapide. «Protect Taylor Swift» est devenu viral, tendance alors que Swifties s'est prononcé non seulement contre les FFAKES SWIFT, mais toutes les images non consensuelles et explicites faites de femmes.
Swift, sans doute la femme la plus célèbre du monde en ce moment, est devenue la victime de grande envergure d'une forme de harcèlement trop fréquente. Elle n'a pas encore commenté les photos publiquement, mais son statut lui donne le pouvoir de manier dans une situation où tant de femmes se sont retrouvées avec peu de recours. Deepfake Porn est de plus en plus courant à mesure que l'intelligence artificielle générative s'améliore: 113 000 vidéos DeepFake ont été téléchargées sur les sites Web porno les plus populaires au cours des neuf premiers mois de 2023, une augmentation significative des 73 000 vidéos téléchargées tout au long de 2022. En 2019, des recherches d'une startup ont révélé que les 73 000 vidéos ont été téléchargées tout au long de 2022. En 2019, des recherches d'une startup ont révélé que les 73 000 96 pour cent des fesses profondes sur Internet était pornographique.
Le contenu est facile à trouver sur les moteurs de recherche et les médias sociaux, et a affecté Autres célébrités féminines et adolescents. Pourtant, beaucoup de gens ne comprennent pas toute l'étendue du problème ou de son impact. Swift, et la manie des médias autour d'elle, ont le potentiel de changer cela.
«Il semble que cela pourrait être l'un de ces événements de déclenchement» qui pourraient conduire à des changements juridiques et sociétaux autour de Deepfakes non consensuels, explique Sam Gregory, directeur exécutif du témoin, une organisation à but non lucratif axée sur l'utilisation d'images et de vidéos pour protéger les droits de l'homme. Mais Gregory dit que les gens ne comprennent toujours pas à quel point le porno profond est commun et à quel point il peut être nocif et violée pour les victimes.
Si quoi que ce soit, cette catastrophe Deepfake rappelle la fuite iCloud 2014 qui a conduit à des photos nues de célébrités comme Jennifer Lawrence et Kate Upton en ligne, ce qui a suscité des appels à une plus grande protection sur les identités numériques des gens. Apple a finalement augmenté les fonctionnalités de sécurité.
Une poignée de états Ayez des lois sur les profondeurs non consensuelles, et il y a aussi des mouvements pour l'interdire au niveau fédéral. Le représentant Joseph Morelle (D-New York) a introduit un facture Au Congrès, cela rendrait illégal de créer et de partager du porno profondément sans le consentement d'une personne. Une autre maison facture du représentant Yvette Clarke (D-New York) cherche à recourir légal aux victimes du porno profondément. Rep. Tom Kean, Jr. (R-New Jersey), who in November introduced a bill that would require the labeling of AI content, used the viral Swift moment to draw attention to his efforts: “Whether the victim is Taylor Swift or any young person across our country—we need to establish safeguards to combat this alarming trend,” Kean said in a déclaration.
Ce n'est pas la première fois que Swift ou Swifties tentent de tenir des plates-formes et des personnes responsables. En 2017, Swift a remporté un procès qu'elle a intenté contre un DJ radio qui, selon elle, l'avait tranchée lors d'une rencontre. Elle était attribué 1 $– Le montant pour lequel elle a poursuivi, et ce que son avocat Douglas Baldridge a appelé une somme symbolique «dont la valeur est incommensurable pour toutes les femmes de cette situation».