Deepfake Porn Is Out of Control

Les experts disent que parallèlement aux nouvelles lois, une meilleure éducation sur les technologies est nécessaire, ainsi que des mesures pour arrêter la propagation des outils créés pour nuire. Cela comprend l'action des entreprises qui hébergent les sites Web et également des moteurs de recherche, notamment Google et Microsoft. Actuellement, les plaintes de Digital Millennium Copyright Act (DMCA) sont le principal mécanisme juridique que les femmes doivent faire retirer les vidéos des sites Web.

Henry Ajder, un expert en IA Deepfake et génératif qui a surveillé le propagation des technologiesdit en ajoutant plus de «frottement» au processus de personnes qui trouvent des vidéos porno DeepFake, des applications pour changer les visages des gens et des outils qui permettent spécifiquement la création d'images non consensuelles peuvent réduire la propagation. «Il s'agit d'essayer de rendre le plus difficile que possible pour quelqu'un de trouver», dit-il. Il pourrait s'agir de moteurs de recherche Résultats de rang pour des sites Web nuisibles ou des fournisseurs de services Internet bloquant les sites, dit-il. «Il est difficile de se sentir vraiment optimiste, étant donné le volume et l'échelle de ces opérations, et le besoin de plates-formes – qui n'ont toujours pas pris ces problèmes au sérieux – pour le faire soudainement», explique Ajder.

“Comme tout moteur de recherche, Google index le contenu qui existe sur le Web, mais nous concevons activement nos systèmes de classement pour éviter de choquer les personnes avec un contenu nocif ou explicite inattendu qu'ils ne veulent pas voir”, explique le porte-parole de Google, Ned Adriance, pointant son page sur quand il supprime les résultats de la recherche. Les pages d'assistance de Google disent qu'il est possible que les gens demandent que la «fausse pornographie involontaire» soit supprimée. C'est formulaire de suppression Exige que les gens soumettent manuellement les URL et les termes de recherche utilisés pour trouver le contenu. «Au fur et à mesure que cet espace évolue, nous travaillons activement pour ajouter plus de garanties pour aider à protéger les personnes, en fonction des systèmes que nous avons construits pour d'autres types d'images explicites non consensuelles», explique Adriance.

Courtney Gregoire, chef de la sécurité numérique de Microsoft, dit qu'il n'autorise pas DeepFakes, et ils peuvent être signalés par son web formes. «La distribution de l'imagerie intime non consensuelle (NCII) est une violation brute de la vie privée et de la dignité personnelle avec des effets dévastateurs pour les victimes», explique Gregoire. «Microsoft interdit NCII sur nos plateformes et services, y compris la sollicitation de NCII ou plaider pour la production ou la redistribution de l'imagerie intime sans le consentement d'une victime.»

Bien que le nombre de vidéos et de photos continue de monter en flèche, l'impact sur les victimes peut être durable. «Le harcèlement en ligne basé sur le sexe a un énorme effet effrayant sur la liberté d'expression pour les femmes», explique Maddocks. Comme rapporté par Wired, des streamers Twitch ciblés par Deepfakes ont un sentiment détaillé violé, exposé à plus de harcèlement et perdant du temps, et certains ont déclaré que le contenu non consensuel avait trouvé son chemin aux membres de la famille.

Flynn, la professeure de l'Université Monash, affirme que ses recherches ont révélé que des «taux élevés» de problèmes de santé mentale – tels que l'anxiété, la dépression, l'automutilation et le suicide – en raison de la violence numérique. «Les effets potentiels sur la santé mentale et physique d'une personne, ainsi que sur les impacts sur son emploi, sa famille et sa vie sociale peuvent être immenses», dit Flynn, «que l'image soit faillie ou« réelle ».»