The AI-Generated Child Abuse Nightmare Is Here

Un nouveau nouveau L'ère d'images ultraréalistes, générées par les enfants, les images d'abus sexuels sur les enfants sont en cours, préviennent les experts. Les délinquants utilisent des modèles d'IA génératifs open source téléchargeables, qui peuvent produire des images, pour des effets dévastateurs. La technologie est utilisée pour créer des centaines de nouvelles images d'enfants qui ont déjà été maltraités. Les délinquants partagent des ensembles de données d'images d'abus qui peuvent être utilisées pour personnaliser les modèles d'IA, et ils commencent à vendre des abonnements mensuels à un matériel d'abus sexuel généré par AI-Généré (CSAM).

Les détails de la façon dont la technologie est abusée est incluse dans un nouveau, rapport large publié Par Internet Watch Foundation (IWF), un organisme à but non lucratif basé au Royaume-Uni qui parcourt et supprime le contenu de la maltraitance du Web. En juin, l'IWF a déclaré qu'il avait trouvé sept URL sur le web ouvert contenant du matériel suspect de l'IA. Maintenant, son enquête sur One Dark Web CSAM Forum, fournissant un instantané de la façon dont l'IA est utilisée, a trouvé près de 3 000 images générées par l'IA que l'IWF considère comme illégale en vertu du droit britannique.

Les images générées par l'AI-AI incluent le viol des bébés et des tout-petits, des enfants préadolescents célèbres abusés, ainsi que du contenu BDSM mettant en vedette des adolescents, selon la recherche IWF. «Nous avons vu des demandes, des discussions et des exemples réels de matériel d'abus sexuel pour enfants avec des célébrités», explique Dan Sexton, directeur de la technologie de l'IWF. Parfois, dit Sexton, les célébrités sont débordées pour ressembler à des enfants. Dans d'autres cas, les célébrités adultes sont décrites comme ces enfants abusés.

Bien que les rapports de CSAM généré par l'AI soient toujours éclipsés par le nombre d'images et de vidéos d'abus réelles trouvées en ligne, Sexton dit qu'il est alarmé à la vitesse du développement et au potentiel qu'il crée pour de nouveaux types d'images abusives. Les résultats sont conformes aux autres groupes enquêtant sur la propagation du CSAM en ligne. Dans une base de données partagée, les enquêteurs du monde entier ont signalé 13 500 images générées par l'IA-AI de violences sexuelles et d'exploitation, Lloyd Richardson, directeur des technologies de l'information du Centre canadien de protection de l'enfance, a déclaré Wired. «C'est juste la pointe de l'iceberg», explique Richardson.

Un cauchemar réaliste

La récolte actuelle de générateurs d'images d'IA – capable de produire de l'art convaincant, de photographies réalistes et de designs bizarres – procurent un nouveau type de créativité et une promesse de changer l'art pour toujours. Ils ont également été utilisés pour créer des contrefaçons convaincantes, comme Balenciaga Pope et une première version de l'arrestation de Donald Trump. Les systèmes sont formés sur d'énormes volumes d'images existantes, souvent grattés du Web sans autorisation, et permettent de créer des images à partir d'invites de texte simples. Demander un «éléphant portant un chapeau» entraînera juste cela.

Ce n'est pas une surprise que les délinquants créant du CSAM aient adopté des outils de génération d'images. «La façon dont ces images sont générées est, généralement, elles utilisent des logiciels ouvertement disponibles», explique Sexton. Les délinquants que l'IWF ont vu fréquemment référence à la diffusion stable, un modèle d'IA mis à disposition par la société britannique Stabilité AI. La société n'a pas répondu à la demande de commentaires de Wired. Dans la deuxième version de son logiciel, publié à la fin de l'année dernière, la société a changé son modèle Pour rendre plus difficile pour les gens de créer du CSAM et d'autres images nues.

Sexton dit que les criminels utilisent des versions plus anciennes des modèles d'IA et les affinés pour créer du matériel illégal des enfants. Cela implique de nourrir un modèle d'images d'abus existantes ou de photos des visages des gens, permettant à l'IA de créer des images d'individus spécifiques. «Nous voyons des modèles affinés qui créent de nouvelles images de victimes existantes», explique Sexton. Les auteurs «échangent des centaines de nouvelles images de victimes existantes» et font des demandes de personnes, dit-il. Certains fils sur les forums Web Dark partagent des ensembles de visages des victimes, dit la recherche, et un fil a été appelé: «Ressources photo pour l'IA et les filles spécifiques à la femelle profonde».