Meta Will Crack Down on AI-Generated Fakes—but Leave Plenty Undetected
Meta, comme d'autres sociétés technologiques de premier plan, a passé l'année dernière à promettre d'accélérer le déploiement de l'intelligence artificielle générative. Aujourd'hui, il a reconnu qu'il devait également répondre aux dangers de la technologie, annonçant un politique élargie de marquer des images générées par AI publiées sur Facebook, Instagram et des fils avec des étiquettes d'avertissement pour informer les gens de leurs origines artificielles.
Pourtant, une grande partie des médias synthétiques susceptibles d'apparaître sur les plates-formes de Meta ne sera probablement pas couverte par la nouvelle politique, laissant de nombreuses lacunes par lesquelles les acteurs malveillants pourraient glisser. «C'est un pas dans la bonne direction, mais avec des défis», explique Sam Gregory, directeur du programme du témoin à but non lucratif, qui aide les gens à utiliser la technologie pour soutenir les droits de l'homme.
Meta étiquette déjà les images générées par l'IA fabriquées à l'aide de ses propres outils d'IA génératifs avec la balise «imaginée avec l'IA», en partie en recherchant le «filigrane» numérique que ses algorithmes s'inclinent dans leur sortie. Maintenant, Meta dit qu'au cours des prochains mois, il étiquetera également les images d'IA fabriquées avec des outils offerts par d'autres sociétés qui intègrent des filigranes dans leur technologie.
La politique est censée réduire le risque de désinformation erronée ou de désinformation par les images générées par l'AI-AI transmises sous forme de photos. Mais bien que Meta ait déclaré qu'il s'efforçait de prendre en charge la technologie de divulgation en développement chez Google, Openai, Microsoft, Adobe, MidJourney et Shutterstock, la technologie n'est pas encore largement déployée. Et de nombreux outils de génération d'images d'IA sont disponibles qui ne font pas de filigrane leur production, la technologie devenant de plus en plus facile d'accès et de modification. «La seule façon dont un système comme celui-ci sera efficace est si un large éventail d'outils et de plates-formes génératifs a participé», explique Gregory.
Même s'il y a un large soutien pour le filigrane, il n'est pas clair à quel point toute protection qu'il offre sera robuste. Il n'y a pas de norme universellement déployée en place, mais la Coalition for Content Provenance and Authenticity (C2PA), une initiative fondée par Adobe, a aidé les entreprises à commencer à aligner leur travail sur le concept. Mais la technologie développée jusqu'à présent n'est pas infaillible. Dans une étude publiée l'année dernière, les chercheurs ont découvert qu'ils pouvaient facilement casser les filigranes ou les ajouter à des images qui n'avaient pas été générées par l'IA pour faire apparaître qu'ils l'avaient fait.
Échappatoire malveillante
Hany Farid, professeur à la UC Berkeley School of Information, qui a conseillé l'initiative C2PA, dit que toute personne intéressée à utiliser l'IA génératrice malicieusement se tournera probablement vers des outils qui ne filigèrent pas leur production ou ne trahissent pas sa nature. Par exemple, les créateurs du faux robocall utilisant la voix du président Joe Biden ciblant certains électeurs du New Hampshire le mois dernier n'ont ajouté aucune divulgation de ses origines.
Et il pense que les entreprises devraient être préparées pour que les mauvais acteurs ciblent la méthode qu'ils essaient d'utiliser pour identifier la provenance du contenu. Farid soupçonne que plusieurs formes d'identification pourraient devoir être utilisées de concert pour identifier robustement des images générées par l'IA, par exemple en combinant le filigrane avec la technologie basée sur le hachage utilisé pour créer des listes de montre pour les enfants d'abus sexuels pour enfants. Et le filigrane est un concept moins développé pour les médias générés par l'IA, autres que des images, tels que l'audio et la vidéo.
«Alors que les entreprises commencent à inclure des signaux dans leurs générateurs d'images, ils n'ont pas commencé à les inclure dans des outils d'IA qui génèrent l'audio et la vidéo à la même échelle, nous ne pouvons donc pas encore détecter ces signaux et étiqueter ce contenu d'autres sociétés, »Le porte-parole de Meta, Kevin McAlister, reconnaît. “Alors que l'industrie travaille sur cette capacité, nous ajoutons une fonctionnalité que les gens peuvent divulguer lorsqu'ils partagent une vidéo ou un audio généré par l'IA afin que nous puissions y ajouter une étiquette.”
Les nouvelles politiques de Meta peuvent aider à attraper plus de faux contenu, mais tous les médias manipulés ne sont pas générés par l'AI. Une décision publiée lundi par Meta's Oversight Board of Independent Experts, qui passe en revue certains appels de modération, a confirmé la décision de l'entreprise de laisser une vidéo du président Joe Biden qui avait été édité pour faire apparaître qu'il touche de manière inappropriée la poitrine de sa petite-fille. Mais le conseil a déclaré que si la vidéo, qui n'était pas générée par l'AI, n'a pas violé les politiques actuelles de Meta, elle devrait réviser et développer Ses règles pour les «médias manipulés» pour couvrir plus que le contenu généré par l'IA.
McAlister, le porte-parole de Meta, a déclaré que la société «examine les conseils du conseil d'assistance et répondrait publiquement à leurs recommandations dans les 60 jours conformément aux statuts». Farid dit que le trou dans les politiques de Meta, et l'accent technique sur uniquement des images générés par un filigrane AI, suggère que le plan de l'entreprise pour l'ère Gen AI est incomplet.