The Pope’s Coat Is Here to Ruin Your Faith
Le moniteur est un colonne hebdomadaire Consulté à tout ce qui se passe dans le monde câblé de la culture, des films aux mèmes, à la télévision à Twitter.
Les générations futures reconnaîtront le changement d’ambiance. C’est arrivé le week-end dernier, alors que tout d’un coup des médias sociaux remplis d’images du pape François, généralement un mec pieux et simple, ressemblant à un boss dans un manteau blanc élégant. C’était instantanément un mème, un lol dans une mer de mauvaises nouvelles. Ce n’était pas non plus réel. Quelqu’un a créé l’image à l’aide de l’outil d’intelligence artificielle Midjourney. Mais cela a trompé beaucoup de gens – tant que beaucoup que les médias ont commencé l’appeler «L’un des premiers cas de désinformation à grande échelle résultant de l’intelligence artificielle.»
Le simple fait de taper cette phrase est obsédante. Comme la première fois que vous voyez quelqu’un dans un manteau rouge L’histoire de la servante. Non pas que cela dénonce la dystopie. C’était, après tout, une seule image de la mouche à l’aspect du Pape. Mais que se passe-t-il si c’était une image se déclarant être un champ de bataille dans la guerre en Ukraine? Ou du président Biden qui prend une sorte de réunion secrète? Les possibilités de générer ce type de désinformation sont intimidantes.
Faire tomber des dizaines de personnes pour un foret profond désastreux de Volodymyr Zelensky demande un peu plus de travail que de les tromper avec une image maladroite d’un pontife, bien sûr. Comme Charlie Warzel indiqué dans L’Atlantique Cette semaine, tout le monde utilise «des heuristiques différentes pour essayer de refuser la vérité», et il est plus facile de croire que le pape François porterait un puffer que cela, disons, ces images de l’IA de l’ancien président Donald Trump qui se font arrêter sont réelles. Il n’est donc pas difficile de voir pourquoi tant de gens les ont vus, gloussaient et continuaient de faire défiler sans remettre en question leur authenticité.
Mais cela établit un précédent troublant. Le créateur de l’image du Pape Coat n’a tenté d’induire qui que ce soit. En fait, il Tell BuzzFeed News Il trébuchait juste des champignons et essayait de penser à des images drôles. Mais que se passe-t-il si cela faisait partie d’une campagne de désinformation? Beaucoup de contenu généré par l’IA est déjà si propre qu’il est difficile pour les yeux et les oreilles humains de détecter ses origines.
Les téléspectateurs n’auraient probablement jamais su que la voix d’Anthony Bourdain était truquée dans le documentaire Roadrunner Si le réalisateur Morgan Neville ne l’avait pas dit Le New Yorker. Deepfakes sont déjà utilisés En tant qu’outils politiques. En l’état, les sceptiques peuvent consulter des sources d’information de confiance s’ils soupçonnent qu’une image est fausse, mais la confiance dans les médias est déjà approchant des bas records. Si quelqu’un peut maintenant générer une image de quoi que ce soit et de foi en n’importe quelle source qui pourrait démystifier cette image à un creux de tous les temps, qui va croire leurs yeux mensonges?
Quelques jours après que les images générées par l’AI du pape François sont devenues virales, le pontife a été emmené à l’hôpital de Rome pour une infection respiratoire. Il s’améliore depuis, mais comme cette (vraie) nouvelle s’est répandue, elle s’est un peu perdue au milieu des histoires de la fausse image. Le pape avait tendance à deux raisons très différentes, et à première vue, il était difficile de déterminer quel était celui de la substance.
L’ère des médias sociaux a transformé le très en ligne en très bons détectives. Le scepticisme règne. Mais aussi les théories du complot. Au-delà de l’ère post-vérité se trouve un moment où des images convaincantes, du texte et même de la vidéo peuvent être générés à partir de l’air mince. L’une des grandes promesses d’Internet était que quiconque pouvait diffuser des informations à un public beaucoup plus large qu’auparavant. Pendant des années, les menteurs ont été plus faciles à repérer: de mauvaises URL, des photoshop de merde, des fautes de frappe – toutes ces choses ont donné les scélérats. L’IA peut lisser leurs erreurs. Je ne suis pas petit de poulet, mais peut-être que je n’ai pas encore été dupe par une image du ciel qui tombe.