Generative AI Learned Nothing From Web 2.0
Peu de temps après que Google ait publié son chatbot Bard cette année, les chercheurs ont trouvé des trous majeurs dans ses commandes; Dans les tests, ils ont pu générer une désinformation sur Covid-19 et la guerre en Ukraine. En réponse aux rapports de Wired sur ce problème, un porte-parole de Google a qualifié Bard «une expérience précoce qui peut parfois donner des informations inexactes ou inappropriées» et a affirmé que la société prendrait des mesures contre le contenu problématique.
Il est difficile de savoir si les fournisseurs de chatbot peuvent rendre leurs créations suffisamment fiables pour échapper au cycle réactif vu sur les plateformes sociales, qui polissent constamment mais impatient le tuyau d'incendie de nouveau contenu problématique. Bien que des entreprises comme Google, Amazon et OpenAI se soient engagées dans certaines solutions, comme l'ajout de «filigranes» numériques aux vidéos et photos générées par l'IA, ont noté que ces mesures sont également faciles à contourner et sont peu susceptibles de fonctionner comme des solutions à long terme.
Faker que jamais
Farid prédit que, tout comme les plateformes de médias sociaux amplifiaient le pouvoir des individus de produire et de partager des informations – qu'ils soient ou non précis ou partagés de bonne foi – l'IA générative prendra cette capacité à un autre niveau. «Nous constatons beaucoup plus de désinformation», dit-il. “Les gens utilisent maintenant cette IA générée pour créer des vidéos de candidats et de politiciens et de nouvelles et de PDG de nouvelles disant des choses qu'ils n'ont jamais dit.”
Farid dit que non seulement l'IA génératrice rend la production de mauvais et de désinformation plus rapide, moins chère et plus facile, elle sape également la véracité de réel médias et informations. Tout comme Donald Trump a cherché à neutraliser la couverture défavorable en l'appelant «fausses nouvelles», plus tôt cette année, un politicien indien a allégué que audio divulgué L'impliquer dans un scandale de corruption était faux (ce n'était pas le cas).
En réponse à des préoccupations selon lesquelles de fausses vidéos de candidats politiques américains pourraient fausser les campagnes électorales en 2024, Meta et YouTube ont publié des politiques exigeant que les publicités politiques générées par l'IA soient clairement étiquetées. Mais comme le filigrane des images et des vidéos générées, la politique ne couvre pas une variété d'autres façons dont les faux médias peuvent être créés et partagés.
Malgré ce qui semble être une aggravation des perspectives, les plateformes ont commencé à réduire les ressources et les équipes nécessaires pour détecter un contenu nuisible, explique Sam Gregory, directeur de programme chez le témoin à but non lucratif, qui aide les gens à utiliser la technologie pour promouvoir les droits de l'homme. Les grandes entreprises technologiques ont licencié des dizaines de milliers de travailleurs au cours de la dernière année. «Nous avons vu beaucoup de réductions dans les équipes de confiance et de sécurité et de programmes de vérification des faits en même temps, et cela ajoute un joker très instable au mélange», dit-il. «Vous réduisez la capacité, à la fois au sein des entreprises et au sein de la société civile, pour pouvoir faire attention à la façon dont cela est utilisé de manière trompeuse ou malveillante.»
Les conséquences inattendues des plateformes sociales ont été associées à un slogan autrefois populaire auprès du PDG de Facebook Mark Zuckerberg: “Déplacez-vous vite et cassez les choses.” Facebook a ensuite retiré cette devise, mais en tant que sociétés d'IA jockey pour la suprématie avec des algorithmes génératifs, Gregory dit qu'il voit la même approche imprudente maintenant.
“Il y a un sentiment de libération après la libération sans beaucoup de considération”, dit-il, notant que, comme de nombreuses grandes plates-formes, il existe une opacité dans la façon dont ces produits sont construits, formés, testés et déployés.
Bien que le Congrès et les régulateurs américains du monde entier semblent déterminés à réagir à une IA générative moins lentement qu'aux réseaux sociaux, Farid affirme que la réglementation est loin derrière le développement de l'IA. Cela signifie qu'il n'y a aucune incitation pour la nouvelle récolte d'entreprises génératrices axées sur la ralentissement de la préoccupation des pénalités.
«Les régulateurs n'ont aucune idée de ce qu'ils font, et les entreprises se déplacent si vite que personne ne sait suivre», dit-il. Cela indique une leçon, dit-il, non pas sur la technologie, mais sur la société. «Les entreprises technologiques se rendent compte qu'elles peuvent gagner beaucoup d'argent si elles privatisent les bénéfices et socialisent le coût. Ce n'est pas la technologie terrifiante, ce qui est terrifiant, c'est le capitalisme. »