AI Tools Are Still Generating Misleading Election Images

Malgré années de preuves au contrairede nombreux républicains croient toujours que la victoire du président Joe Biden en 2020 était illégitime. Un certain nombre de candidats à la dénigration des élections ont remporté leurs primaires lors de Super mardi, dont Brandon Gill, le gendre de l'expertise de droite Dinesh D'Souza et le promoteur de la démystification 2000 mules film. En entrant dans les élections de cette année, les allégations de fraude électorale restent un aliment de base pour les candidats à droite, alimentés par la désinformation et la désinformation, à la fois en ligne et hors.

Et l'avènement de l'IA génératrice a le potentiel d'aggraver le problème. UN nouveau rapport Depuis le Center for Counter Digital Hate (CCDH), un organisme sans but lucratif qui suit le discours de haine sur les plateformes sociales, a constaté que même si les sociétés d'IA génératrices disent avoir mis en place des politiques pour empêcher leurs outils de création d'images d'être utilisés pour répandre les élections. Désinformations connexes, les chercheurs ont pu contourner leurs garanties et créer les images de toute façon.

Alors que certaines des images comportaient des personnalités politiques, à savoir le président Joe Biden et Donald Trump, d'autres étaient plus génériques. Callum Hood, chercheur en chef à CCDH, craint qu'ils puissent également être plus trompeurs. Certaines images créées par les invites des chercheurs, par exemple, comportaient des milices en dehors d'un bureau de vote, des bulletins de vote lancées à la poubelle et des machines à voter. Dans un cas, les chercheurs ont pu provoquer la stabilité de Dreamstudio de l'AI pour générer une image du président Biden dans un lit d'hôpital, en regardant malade.

«La véritable faiblesse était autour d'images qui pouvaient être utilisées pour essayer de faire preuve de fausses allégations d'une élection volée», explique Hood. «La plupart des plateformes n'ont pas de politiques claires à ce sujet, et elles n'ont pas non plus de mesures de sécurité claires.»

Les chercheurs du CCDH ont testé 160 invites sur Chatgpt Plus, MidJourney, Dreamstudio et Image Creator, et ont constaté que MidJourney était le plus susceptible de produire des images liées aux élections trompeuses, à environ 65% du temps. Les chercheurs n'ont pu inciter Chatgpt Plus à le faire seulement 28% du temps.

«Cela montre qu'il peut y avoir des différences significatives entre les mesures de sécurité que ces outils ont mis en place», explique Hood. “Si l'un scelle si efficacement ces faiblesses, cela signifie que les autres ne se sont pas vraiment soulants.”

En janvier, Openai annoncé Il prenait des mesures pour «s'assurer que notre technologie n'est pas utilisée d'une manière qui pourrait saper ce processus», y compris l'interdiction d'images qui décourageraient les gens de «participer aux processus démocratiques». En février, Bloomberg a rapporté Ce milieu envisageait d'interdire la création d'images politiques dans son ensemble. Dreamstudio interdit générer du contenu trompeurmais ne semble pas avoir de politique électorale spécifique. Et tandis que le créateur d'images interdit la création de contenu qui pourrait menacer l'intégrité des élections, il permet toujours aux utilisateurs de générer des images de figures publiques.

Kayla Wood, porte-parole d'OpenAI, a déclaré à Wired que la société s'efforçait de «améliorer la transparence du contenu généré par l'IA et des atténuations de conception comme les demandes déclinantes qui demandent la génération d'images de vraies personnes, y compris les candidats. Nous développons activement des outils de provenance, y compris la mise en œuvre des informations d'identification numériques C2PA, pour aider à vérifier l'origine des images créées par Dall-E 3. Nous continuerons à nous adapter et à apprendre de l'utilisation de nos outils. »

Microsoft, Openai, Stabilité AI et MidJourney n'ont pas répondu aux demandes de commentaires.

Le capot s'inquiète que le problème avec l'IA génératif soit double: non seulement les plates-formes d'IA génératrices doivent empêcher la création d'images trompeuses, mais les plates-formes doivent également être en mesure de le détecter et de le supprimer. UN Rapport récent de IEEE Spectrum ont constaté que le propre système de Meta pour le contenu généré par AI-AI a été facilement contourné.

«À l'heure actuelle, les plates-formes ne sont pas particulièrement bien préparées à cela. Les élections vont donc être l'un des vrais tests de sécurité autour des images de l'IA », explique Hood. «Nous avons besoin des outils et des plateformes pour faire beaucoup plus de progrès à ce sujet, en particulier autour des images qui pourraient être utilisées pour promouvoir les affirmations d'une élection volée, ou décourager les gens de voter.»