Generative AI Is Playing a Surprising Role in Israel-Hamas Disinformation

En ce sens, Une concentration excessive sur une nouvelle technologie flashy est souvent un hareng rouge. «Être réaliste n'est pas toujours ce que les gens recherchent ou ce qui est nécessaire pour être viral sur Internet», ajoute Sacha Altay, coauteur sur le journal et chercheur postdoctoral dont le domaine actuel implique de la désinformation, de la confiance et des médias sociaux à l'Université de Zurich's Laboratoire de démocratie numérique.

C'est également vrai du côté de l'offre, explique Mashkoor; L'invention n'est pas la mise en œuvre. «Il existe de nombreuses façons de manipuler la conversation ou de manipuler l'espace d'information en ligne», dit-elle. “Et il y a des choses qui sont parfois un ascenseur inférieur ou plus facile à faire qui ne nécessiteraient pas l'accès à une technologie spécifique, même si le logiciel générateur de l'AI est facile d'accès pour le moment, il existe certainement des moyens plus faciles de manipuler quelque chose si vous le cherchez.”

Felix Simon, un autre des auteurs du journal Kennedy School et un doctorant à l'Institut d'Oxford Internet, avertit que le commentaire de son équipe ne cherche pas à mettre fin au débat sur d'éventuels préjudices, mais est plutôt une tentative de repousser les affirmations, le général AI déclenchera «une vérité Armageddon». Ces types de paniques accompagnent souvent les nouvelles technologies.

Mettre de côté le Vue apocalyptique, il est plus facile d'étudier la génération de l'IA en fait interrompu dans l'écosystème de désinformation existant. Il est, par exemple, beaucoup plus répandu qu'il ne l'était au début de l'invasion russe de l'Ukraine, soutient Hany Farid, professeur à la UC Berkeley School of Information.

Farid caractérise la technologie comme un «spectre» gêner Audio et vidéo qui prétend provenir du conflit, et qu'il reçoit une demi-douzaine à une douzaine d'appels quotidiennement des journalistes se demandant la véracité. «Pour beaucoup de gens, la capacité de rejeter les faits gênants est absolument un rôle dans ce conflit», dit-il.

Farid cite plusieurs exemples qui ont immédiatement tiré ce type de licenciement, y compris des personnes pointant vers divers morceaux de preuves numériques sur qui était derrière la grève des missiles à l'hôpital arab un faux.

Certains des exemples les plus importants de cela sont les photos des enfants brûlés du Premier ministre israélien Benjamin Netanyahu affiché sur son compte x. Après leur publication, quelqu'un a alimenté les images dans l'outil de détection AI ou non, ce qui, selon les utilisateurs, a déterminé qu'ils étaient l'IA. Farid dit que son équipe a analysé les photos et a conclu l'IA ne pas utilisé, mais la graine de suspicion avait déjà été plantée. Les choses étaient encore confuses lorsque quelqu'un a utilisé l'IA pour remplacer l'enfant dans l'une des images par un chiot.

“Et puis cela est allé en ligne, puis les gens sont comme:” Eh bien, attendez une minute, s'il aurait pu faire celui-là, alors celui-là pourrait être faux, et maintenant ces deux versions se tournent, et tout le monde a commencé à dire: “Oh, le chiot était l'original, c'est le faux”, et puis vous faites boucler l'eau “, dit Farid.

En d'autres termes, cette distribution suit un modèle historique: la désinformation est partagée sur les réseaux sociaux, puis amplifiée via des algorithmes et des humains. «Dans l'image plus large, dans notre capacité à raisonner à propos d'un monde très percutant, je pense que ce conflit est pire que ce que nous avons vu dans le passé», explique Farid. «Et je pense que la génération AI en fait partie, mais ce n'est pas exclusivement Gen AI. C'est trop simpliste.