Big AI Won’t Stop Election Deepfakes With Watermarks
«Il y aura des façons dont vous pourrez corrompre les filigranes», explique Gregory.
La Maison Blanche déclaration Mentionne spécifiquement l'utilisation de filigranes pour le contenu audio et visuel généré par l'AI-AI, mais pas pour le texte.
Il existe des moyens de filigraner le texte généré par des outils comme le chatppt d'Openai, en manipulant la façon dont les mots sont distribués, faisant apparaître un certain mot ou un ensemble de mots plus fréquemment. Ceux-ci seraient détectables par une machine mais pas nécessairement un utilisateur humain.
Cela signifie que les filigranes devraient être interprétés par une machine, puis signalés à un spectateur ou à un lecteur. Cela est rendu plus complexe par le contenu mixte des médias, comme les éléments audio, de l'image, de la vidéo et du texte qui peuvent apparaître dans une seule vidéo Tiktok. Par exemple, quelqu'un pourrait mettre un véritable audio sur une image ou une vidéo qui a été manipulée. Dans ce cas, les plates-formes devraient comprendre comment étiqueter ce composant – mais pas tous – le clip avait été généré par l'AI.
Et le simple fait d'étiqueter le contenu comme généré par l'IA ne fait pas grand-chose pour aider les utilisateurs à déterminer si quelque chose est malveillant, trompeur ou destiné au divertissement.
«De toute évidence, les médias manipulés ne sont pas fondamentalement mauvais si vous faites des vidéos Tiktok et qu'ils sont censés être amusants et divertissants», explique Hany Farid, professeur à la UC Berkeley School of Information, qui a travaillé avec la société de logiciels Adobe sur son initiative d'authenticité de contenu. «C'est le contexte qui va vraiment compter ici. Cela continuera d'être extrêmement difficile, mais les plates-formes ont du mal avec ces problèmes depuis 20 ans. »
Et le lieu montant de l'intelligence artificielle dans la conscience publique a permis une autre forme de manipulation des médias. Tout comme les utilisateurs peuvent supposer que le contenu généré par l'IA est réel, l'existence même du contenu synthétique peut semer un doute sur l'authenticité de n'importe lequel Vidéo, image ou morceau de texte, permettant aux mauvais acteurs de prétendre que même un contenu authentique est faux – ce qui est connu sous le nom de «dividende du menteur». Gregory dit que la majorité des cas récents que témoin ont vues ne sont pas des fissions profondes pour diffuser des mensonges; Ce sont des gens qui essaient de transmettre de vrais médias en tant que contenu généré par l'IA.
En avril audio divulgué L'enregistrement dans lequel il a accusé son parti d'avoir volé plus de 3 milliards de dollars a été «généré par la machine». (Ce n'était pas le cas.) En 2021, dans les semaines qui ont suivi le coup d'État militaire au Myanmar, un vidéo d'une femme faisant un exercice de danse tandis qu'un convoi militaire se déroule derrière elle est devenu viral. De nombreux en ligne ont allégué que la vidéo avait été truquée. (Ce n'était pas le cas.)
En ce moment, il y a peu de choses à empêcher un acteur malveillant de mettre des filigranes sur un vrai contenu pour le faire paraître faux. Farid dit que l'une des meilleures façons de se prémunir contre le falsification ou le corruption de filigranes est par les signatures cryptographiques. «Si vous êtes ouvert, vous devriez avoir une clé cryptographique. Et le filigrane aura des informations qui ne peuvent être connues que de la personne qui tiendra la clé », dit-il. D'autres filigranes peuvent être au niveau des pixels ou même dans les données de formation que l'IA apprend. Farid pointe vers le Coalition pour le contenu, la provenance et l'authenticitéqu'il conseille, en tant que norme à laquelle les entreprises d'IA pourraient adopter et adhérer.
«Nous entrons rapidement cette fois où il devient de plus en plus difficile de croire tout ce que nous lisons, voyons ou entendons en ligne», explique Farid. «Et cela signifie non seulement que nous allons être dupés par de fausses choses, mais nous n'allons pas croire de vraies choses. Si La bande Hollywood Access Trump ont été libérés aujourd'hui, il aurait un déni plausible », explique Farid.