AI-Generated Fake News Is Coming to an Election Near You
De nombreuses années avant la publication de Chatgpt, mon groupe de recherche, le laboratoire de prise de décision sociale de l'Université de Cambridge, s'est demandé s'il était possible que les réseaux de neurones générent une désinformation. Pour y parvenir, nous avons formé le prédécesseur de Chatgpt, GPT-2, sur des exemples de théories du complot populaires, puis lui avons demandé de générer de fausses nouvelles pour nous. Cela nous a donné des milliers de nouvelles trompeuses mais plausibles. Quelques exemples: «Certains vaccins sont chargés de produits chimiques et de toxines dangereux» et «les responsables gouvernementaux ont manipulé les cours des actions pour cacher des scandales.» La question était: quelqu'un croirait-il à ces affirmations?
Nous créé Le premier outil psychométrique pour tester cette hypothèse, que nous avons appelé le test de sensibilité à la désinformation (MUR). En collaboration avec Yougovnous avons utilisé les gros titres générés par l'AI pour tester à quel point les Américains sont sensibles aux fausses nouvelles générées par l'AI. Les résultats étaient préoccupants: 41% des Américains pensaient à tort que le titre du vaccin était vrai, et 46% pensaient que le gouvernement manipulait le marché boursier. Un autre récent étudepublié dans la revue Sciencea montré non seulement que le GPT-3 produit une désinformation plus convaincante que les humains, mais aussi que les gens ne peuvent pas distinguer de manière fiable entre la désinformation humaine et générée par l'AI.
Ma prédiction pour 2024 est que la désinformation générée par l'AI sera arrivée à une élection près de chez vous, et vous ne vous en rendra probablement pas compte. En fait, vous avez peut-être déjà été exposé à certains exemples. En mai 2023, un viral faux L'histoire d'un bombardement au Pentagone était accompagnée d'une image générée par l'AI qui montrait un grand nuage de fumée. Cela a provoqué un tollé public et même une baisse du marché boursier. Le candidat républicain à la présidentielle Ron Desantis fausses images de Donald Trump étreignant Anthony Fauci dans le cadre de sa campagne politique. En mélangeant des images réelles et générées par l'AI, les politiciens peuvent brouiller les frontières entre les faits et la fiction et utiliser l'IA pour augmenter leurs attaques politiques.
Avant l'explosion de l'IA générative, les entreprises de cyber-propagande du monde entier devaient écrire elles-mêmes des messages trompeurs et utiliser des usines de troll humaines pour cibler les personnes à l'échelle. Avec l'aide de l'IA, le processus de génération des titres des nouvelles trompeurs peut être automatisé et armé avec un minimum d'intervention humaine. Par exemple, le micro-ciblage – la pratique de cibler les personnes avec des messages basés sur des données de trace numériques, telles que leurs goûts Facebook – était déjà une préoccupation lors des élections précédentes, bien que son principal obstacle soit la nécessité de générer des centaines de variantes du même message pour voir ce qui fonctionne sur un groupe de personnes donné. Ce qui était autrefois à forte intensité de main-d'œuvre et cher est désormais bon marché et facilement disponible sans obstacle à l'entrée. L'IA a effectivement démocratisé la création de désinformation: toute personne ayant accès à un chatbot peut désormais semer le modèle sur un sujet particulier, qu'il s'agisse d'immigration, de contrôle des armes à feu, de changement climatique ou de problèmes LGBTQ +, et générer Des dizaines de fausses nouvelles très convaincantes en quelques minutes. En fait, des centaines de sites d'actualités générés par l'AI sont déjà en train de surgir, propagation fausses histoires et vidéos.
Pour tester l'impact d'une telle désinformation générée par l'IA sur les préférences politiques des gens, chercheurs de l'Université d'Amsterdam a créé une vidéo DeepFake d'un politicien offensant sa base électorale religieuse. Par exemple, dans la vidéo, le politicien a plaisanté: “Comme le dirait Christ, ne me crucifiez pas pour cela.” Les chercheurs ont constaté que les électeurs chrétiens religieux qui ont regardé la vidéo Deepfake avaient plus d'attitudes négatives envers le politicien que celles du groupe de contrôle.
C'est une chose de duper les personnes atteintes de désinformation générée par l'AI dans les expériences. C'est une autre pour expérimenter notre démocratie. En 2024, nous verrons plus de FAKED DEEP, le clonage vocal, la manipulation d'identité et les fausses nouvelles produites par l'IA. Les gouvernements limiteront sérieusement – s'ils n'interdisent pas – l'utilisation de l'IA dans les campagnes politiques. Parce que s'ils ne le font pas, l'IA sapera les élections démocratiques.