Brace Yourself for the 2024 Deepfake Election

Certaines tas de personnalités politiques ont émergé ces dernières années, comme l'un du président ukrainien Volodymyr Zelensky, disant à ses troupes de se rendre qui a été publiée l'année dernière. Une fois que la technologie a avancé davantage, ce qui peut ne pas prendre longtemps compte tenu de la rapidité avec laquelle d'autres formes d'IA génératrices progressent, davantage de ces types de vidéos peuvent apparaître car ils deviennent plus convaincants et plus faciles à produire.

«Je ne pense pas qu'il y ait un site Web où vous pouvez dire« Créez-moi une vidéo de Joe Biden en disant X. Cela n'existe pas, mais cela le fera », explique Hany Farid, professeur à la School of Information de l'UC Berkeley. «C'est juste une question de temps. Les gens travaillent déjà sur du texte à la vidéo.»

Qui inclut des entreprises comme Piste, Googleet Méta. Une fois qu'une entreprise publie une version de haute qualité d'un outil d'IA génératif de texte à vidéo, nous pouvons voir beaucoup d'autres publier rapidement leurs propres versions, comme nous l'avons fait après la sortie de Chatgpt. Farid dit que personne ne veut se faire «laisser», donc ces entreprises ont tendance à libérer ce qu'elles ont dès qu'elles le peuvent.

«Cela m'étonne constamment que dans le monde physique, lorsque nous publions des produits, il existe des directives vraiment strictes», explique Farid. “Vous ne pouvez pas publier un produit et espérons que cela ne tue pas votre client. Mais avec un logiciel, nous nous disons:” Cela ne fonctionne pas vraiment, mais voyons ce qui se passe lorsque nous le publions à des milliards de personnes. “”

Si nous commençons à voir un nombre important de foldages profonds se propageant pendant les élections, il est facile d'imaginer quelqu'un comme Donald Trump partageant ce type de contenu sur les réseaux sociaux et de prétendre que c'est réel. Une profonde perfection du président Biden disant que quelque chose de disqualifiant pourrait sortir peu de temps avant les élections, et de nombreuses personnes pourraient ne jamais découvrir qu'elle a été générée par l'AI. La recherche a toujours indiquéaprès tout, cette fausse nouvelle se propage plus loin que de vraies nouvelles.

Même si Deepfakes ne devient pas omniprésent avant les élections de 2024, qui est encore dans 18 mois, le simple fait que ce type de contenu puisse être créé pourrait affecter les élections. Savoir que les images frauduleuses, l'audio et la vidéo peuvent être créées relativement facilement pourraient faire en sorte que les gens se méfient le matériel légitime qu'ils rencontrent.

«À certains égards, les fesses profondes et l'IA génératrices n'ont même pas besoin d'être impliqués dans les élections pour qu'ils permettent encore des perturbations, car maintenant le puits a été empoisonné avec cette idée que tout pourrait être faux», explique Ajder. “Cela fournit une excuse vraiment utile si quelque chose de gênant sort vous mettant en vedette. Vous pouvez le rejeter comme faux.”

Alors, que peut-on faire de ce problème? Une solution est quelque chose appelé C2PA. Cette technologie signe cryptographiquement tout contenu créé par un appareil, comme une caméra téléphonique ou vidéo, et des documents qui ont capturé l'image, où et quand. La signature cryptographique est ensuite maintenue sur un grand livre immuable centralisé. Cela permettrait aux gens de produire des vidéos légitimes de montrer qu'elles sont en fait légitimes.

Certaines autres options impliquent ce qu'on appelle les images et les vidéos des empreintes digitales. Les empreintes digitales consistent à prendre ce qu'on appelle les «hachages» du contenu, qui sont essentiellement des chaînes de ses données, de sorte qu'elles peuvent être vérifiées comme légitimes plus tard. Le filigrane, comme vous pouvez vous y attendre, consiste à insérer un filigrane numérique sur les images et les vidéos.