Google Cracks Down on Explicit Deepfakes

Quelques semaines Il y a une recherche Google de «Nudes Deepfake, Jennifer Aniston», a rapporté au moins sept résultats en hauteur qui prétendaient avoir des images explicites et générées par l'AI de l'actrice. Maintenant, ils ont disparu.

La chef de produit de Google, Emma Higham, dit que de nouveaux ajustements à la façon dont l'entreprise classe les résultats, qui ont été déployés cette année, ont déjà réduit l'exposition aux fausses images explicites de plus de 70% sur les recherches à la recherche de ce contenu concernant une personne spécifique. Lorsque des résultats problématiques peuvent être apparus, les algorithmes de Google visent à promouvoir des articles de presse et d'autres contenus non experts. La recherche Aniston retourne désormais des articles tels que «Comment le porno Ai Deepfake Ai de Taylor Swift représente une menace»Et d'autres liens comme Un avertissement procureur général de l'Ohio sur les «escroqueries de la célébrité profonde» qui ciblent les consommateurs.

“Avec ces changements, les gens peuvent lire sur l'impact que Deepfakes a sur la société, plutôt que de voir des pages avec de véritables fausses images non consensuelles”, a écrit Higham dans un article de blog d'entreprise mercredi.

Le changement de classement fait suite à une enquête filaire ce mois-ci qui a révélé que ces dernières années, Google Management a rejeté de nombreuses idées proposées par le personnel et les experts externes pour lutter contre le problème croissant des représentations intimes de personnes qui se répandent en ligne sans leur permission.

Alors que Google a facilité la demande de suppression du contenu explicite indésirable, les victimes et leurs avocats ont exhorté des étapes plus proactives. Mais l'entreprise a essayé d'éviter de devenir trop un régulateur d'Internet ou de nuire à l'accès au porno légitime. À l'époque, un porte-parole de Google a déclaré en réponse que plusieurs équipes travaillaient avec diligence pour renforcer les garanties contre ce qu'elle appelle l'imagerie explicite non consensuelle (NCEI).

L'élargissement de la disponibilité des générateurs d'images d'IA, y compris certains avec peu de restrictions sur leur utilisation, a conduit à une augmentation de la NCEI, selon les défenseurs des victimes. Les outils ont permis à presque quiconque de créer des images explicites spoofes de tout individu, qu'il s'agisse d'un camarade de classe du collège ou d'une méga-célébrité.

En mars, une analyse câblée a révélé que Google avait reçu plus de 13 000 demandes pour supprimer les liens vers une douzaine des sites Web les plus populaires hébergeant des Fakes explicites. Google supprimé se traduit par environ 82% des cas.

Dans le cadre de la nouvelle répression de Google, Higham affirme que la société commencera à appliquer trois des mesures pour réduire la découvre des images explicites réelles mais indésirables à celles qui sont synthétiques et indésirables. Après que Google honore une demande de retrait pour un Farfake sexualisé, il essaiera ensuite de garder les doublons hors des résultats. Il filtrera également les images explicites à partir de résultats dans des requêtes similaires à celles citées dans la demande de retrait. Et enfin, les sites Web soumis à un «volume élevé» de demandes de retrait réussies seront confrontés à la rétrogradation des résultats de recherche.

“Ces efforts sont conçus pour donner aux gens une tranquillité d'esprit supplémentaire, surtout si elles sont préoccupées par le contenu similaire à ce sujet qui apparaît à l'avenir”, a écrit Higham.

Google a reconnu que les mesures ne fonctionnent pas parfaitement, et les anciens employés et les défenseurs des victimes ont déclaré qu'ils pourraient aller beaucoup plus loin. Le moteur de recherche avertit en évidence les gens aux États-Unis à la recherche d'images nus d'enfants qu'un tel contenu est illégal. L'efficacité de l'avertissement n'est pas claire, mais c'est un dissuasion potentiel soutenu par les défenseurs. Pourtant, malgré les lois contre le partage de NCEI, des avertissements similaires n'apparaissent pas pour les perquisitions à la recherche de fous sexuels d'adultes. Le porte-parole de Google a confirmé que cela ne changera pas.