Hulu Shows Jarring Anti-Hamas Ad Likely Generated With AI
Hulu a diffusé une annonce anti-hamas qui semble être faite en utilisant l'intelligence artificielle pour montrer une version idéalisée de Gaza – la réduction de cette destination paradisiaque pourrait exister sans le Hamas.
L'endroit de 30 secondes, s'ouvrant comme une annonce touristique, montre des palmiers et des côtes. Il y a des hôtels et des enfants cinq étoiles. Les gens dansent, mangent et rient, tandis qu'une voix off encourage les visiteurs à «vivre une culture riche en tradition». Mais il se déplace soudainement, transformant le visage d'un homme souriant en grimacant. “C'est à quoi Gaza aurait pu ressembler sans le Hamas”, dit le narrateur. Une nouvelle série d'images clignote, cette époque de combattants et d'armes, et des enfants errant dans les rues ou tenant des fusils.
L'AD aplatenait des décennies de conflit entre Israël et les Palestiniens et siècles de guerre dans la région—Dans une annonce de 30 secondes qui semble utiliser l'IA pour aider à diffuser son message. La réalité de qui est responsable de la souffrance des Palestiniens à Gaza est un problème beaucoup plus compliqué que représenté dans la courte annonce. Le Hamas, qui a été considéré comme une organisation terroriste par les États-Unis, le Canada, la Grande-Bretagne, le Japon et l'Union européenne, a pris le contrôle de la bande de Gaza en 2007. Les troupes israéliennes et les colons ont occupé Gaza de la guerre de 1967 jusqu'en 2005, date à laquelle militaire israélien et les citoyens se sont retirés du territoire palestinien. Les Nations Unies et plusieurs autres entités internationales considérer toujours Gaza doit être occupé efficacement, bien que les États-Unis et Israël contestent ce label.
Depuis la semaine dernière, plus de 25 000 personnes ont été tués à Gaza depuis octobre, selon le ministère de la Santé de Gaza. L'ONU estimations que 1,9 million de personnes à Gaza, environ 85% de la population, ont été déplacées. Autour 1 200 Israéliens ont été tués par le Hamas lors de l'attaque du 7 octobre qui a conduit à la crise actuelle.
L'annonce semble contenir des images fabriquées en utilisant l'IA générative, basée sur l'esthétique, les erreurs en perspective et la répétition d'expressions faciales similaires. L'annonce elle-même reconnaît également que les scènes de la première moitié de l'annonce ne sont pas réelles, mais plutôt imaginées dans une ville sans conflit. Wired a consulté deux sociétés de détection d'images de l'IA, Inholo et Sensity, sur l'annonce, et les deux ont déclaré que l'IA avait été utilisée dans la création de la première partie de l'annonce. Les militants ont utilisé une IA générative tout au long du conflit pour obtenir le soutien de chaque côté.
Cette annonce n'est pas vraiment unfake Deep, mais il montre comment les progrès rapides de l'IA générative peuvent être utilisés pour créer une propagande réaliste et émotionnelle. Même si les gens savent que quelque chose n'est pas réel, le contenu peut toujours les influencer. Certaines personnes continuent de partager des fesses profondes même lorsqu'elles représentent des situations trop bizarres pour être crédibles.
La réimagination apparemment générée par l'AI ressemble à une tendance sur Tiktok qui utilise l'IA pour rendre des histoires alternatives, explique Sam Gregory, directeur exécutif du témoin, une organisation à but non lucratif axée sur l'utilisation d'images et de vidéos pour protéger les droits de l'homme. Ici, il semble que l'IA soit utilisée comme «un outil de production bon marché» pour persuader les téléspectateurs ou renforcer un point de vue existant, ou «pour générer une couverture d'information sur l'utilisation de l'IA elle-même», explique Gregory.