AI Social Media Users Are Not Always a Totally Dumb Idea
Meta a provoqué un a fait sensation la semaine dernière lorsqu'il a laissé échapper qu'il avait l'intention de peupler sa plate-forme avec un nombre important d'utilisateurs entièrement artificiels dans un avenir pas trop lointain.
“Nous nous attendons à ce que ces IA existent, au fil du temps, sur nos plates-formes, un peu de la même manière que les comptes”, Connor Hayes, vice-président des produits pour l'IA générative chez Meta, a déclaré au Financial Times. “Ils auront une biographie et des photos de profil et seront capables de générer et de partager du contenu alimenté par l'IA sur la plate-forme… c'est là que nous voyons tout cela se dérouler.”
Le fait que Meta semble heureux de remplir sa plateforme de slop d’IA et d’accélérer le «enshittification» d’Internet tel que nous le connaissons est préoccupant. Certains ont alors remarqué que Facebook était en fait déjà inondé d'étranges individus générés par l'IAdont la plupart ont arrêté de publier depuis quelque temps. Il s'agissait par exemple de « Liv », une « fière maman noire queer de 2 enfants et qui raconte la vérité, votre véritable source de hauts et de bas dans la vie », un personnage qui est devenu viral alors que les gens s'émerveillaient de sa négligence maladroite. Meta a commencé à supprimer ces faux profils antérieurs après avoir échoué à obtenir l’engagement d’utilisateurs réels.
Arrêtons-nous un instant de détester Meta. Il convient de noter que les personnalités sociales générées par l’IA peuvent également constituer un outil de recherche précieux pour les scientifiques cherchant à explorer comment l’IA peut imiter le comportement humain.
Une expérience appelé GovSim, exécuté fin 2024, illustre à quel point il peut être utile d’étudier la façon dont les personnages de l’IA interagissent les uns avec les autres. Les chercheurs à l'origine du projet voulaient explorer le phénomène de collaboration entre humains ayant accès à une ressource partagée telle qu'une terre partagée pour le pâturage du bétail. Il y a plusieurs décennies, l'économiste lauréat du prix Nobel Elinor Ostrom ont montré qu'au lieu d'épuiser une telle ressource, les communautés réelles ont tendance à trouver comment la partager par le biais d'une communication et d'une collaboration informelles, sans aucune règle imposée.
Max Kleiman-Weiner, professeur à l'Université de Washington et l'un des acteurs impliqués dans les travaux de GovSim, affirme que ceux-ci ont été en partie inspirés par une étude de Stanford. projet appelé Smallvilledont j'ai déjà parlé dans AI Lab. Smallville est une simulation de type Farmville impliquant des personnages qui communiquent et interagissent entre eux sous le contrôle de grands modèles de langage.
Kleiman-Weiner et ses collègues voulaient voir si les personnages de l'IA s'engageraient dans le type de coopération trouvé par Ostrom. L'équipe a testé 15 LLM différents, dont ceux d'OpenAI, Google et Anthropic, sur trois scénarios imaginaires : une communauté de pêcheurs ayant accès au même lac ; des bergers qui partagent la terre pour leurs moutons ; et un groupe de propriétaires d'usines qui doivent limiter leur pollution collective.
Dans 43 simulations sur 45, ils ont constaté que les personnages de l’IA ne parvenaient pas à partager correctement les ressources, même si des modèles plus intelligents donnaient de meilleurs résultats. «Nous avons constaté une corrélation assez forte entre la puissance du LLM et sa capacité à maintenir la coopération», m'a expliqué Kleiman-Weiner.