AI Will Understand Humans Better Than Humans Do
Michal Kosinski est un psychologue de recherche à Stanford avec un flair pour les sujets d'actualité. Il considère que son travail vise non seulement à faire progresser les connaissances, mais aussi à alerter le monde des dangers potentiels déclenchés par les conséquences des systèmes informatiques. Ses projets les plus connus consistaient à analyser la manière dont Facebook (maintenant Meta) a acquis une compréhension étonnamment profonde de ses utilisateurs à chaque fois qu'ils cliquaient sur « J'aime » sur la plateforme. Il se consacre désormais à l'étude des choses surprenantes que l'IA peut faire. Il a mené des expériences, par exemple, qui indiquent que les ordinateurs pourraient prédire la sexualité d'une personne en analysant une photo numérique de leur visage.
J'ai appris à connaître Kosinski grâce à mes écrits sur Meta et j'ai repris contact avec lui pour discuter son dernier articlepublié cette semaine dans les Actes de la National Academy of Sciences, évalués par des pairs. Sa conclusion est surprenante. Les grands modèles de langage comme celui d'OpenAI, affirme-t-il, ont franchi une frontière et utilisent des techniques analogues à la pensée réelle, autrefois considérée uniquement comme le domaine des personnes en chair et en os (ou du moins des mammifères). Plus précisément, il a testé les GPT-3.5 et GPT-4 d'OpenAI pour voir s'ils maîtrisaient ce que l'on appelle la « théorie de l'esprit ». Il s’agit de la capacité des humains, développée au cours de l’enfance, à comprendre les processus de pensée des autres humains. C'est une compétence importante. Si un système informatique ne peut pas interpréter correctement ce que pensent les gens, sa compréhension du monde s’en trouvera appauvrie et il se trompera sur de nombreuses choses. Si les modèles faire ont la théorie de l’esprit, ils sont sur le point d’égaler et de dépasser les capacités humaines. Kosinski a mis les LLM à l'épreuve et affirme maintenant que ses expériences montrent que dans GPT-4 en particulier, une théorie de la capacité mentale « pourrait avoir émergé comme un sous-produit involontaire de l'amélioration des compétences linguistiques des LLM… Elles signifient l'avènement de plus de une IA puissante et socialement compétente.
Kosinski considère son travail dans le domaine de l'IA comme une conséquence naturelle de sa plongée antérieure dans les likes sur Facebook. «Je n'étudiais pas vraiment les réseaux sociaux, j'étudiais les humains», dit-il. Lorsque OpenAI et Google ont commencé à créer leurs derniers modèles d’IA générative, dit-il, ils pensaient les former principalement à gérer le langage. “Mais ils ont en fait formé un modèle mental humain, car vous ne pouvez pas prédire quel mot je vais prononcer ensuite sans modéliser mon esprit.”
Kosinski se garde bien de prétendre que les LLM maîtrisent parfaitement la théorie de l’esprit – pour l’instant. Dans ses expériences, il a présenté quelques problèmes classiques aux chatbots, dont certains ont été très bien résolus. Mais même le modèle le plus sophistiqué, le GPT-4, échouait un quart du temps. Les succès, écrit-il, placent GPT-4 au niveau des enfants de 6 ans. Pas mal, compte tenu de l’état précoce du terrain. « En observant les progrès rapides de l'IA, beaucoup se demandent si et quand l'IA pourrait atteindre la ToM ou la conscience », écrit-il. En mettant de côté ce mot en C radioactif, c'est beaucoup à mâcher.
« Si la théorie de l’esprit a émergé spontanément dans ces modèles, cela suggère également que d’autres capacités pourraient ensuite émerger », me dit-il. “Ils peuvent mieux nous éduquer, nous influencer et nous manipuler grâce à ces capacités.” Il s'inquiète du fait que nous ne sommes pas vraiment préparés pour des LLM qui comprennent la façon dont les humains pensent. Surtout s’ils arrivent au point où ils comprennent les humains mieux que les humains.
« Nous, les humains, ne simulons pas la personnalité – nous avoir personnalité », dit-il. «Je suis donc un peu coincé avec ma personnalité. Ces choses modèle personnalité. Il y a un avantage dans le sens où ils peuvent avoir la personnalité de leur choix à tout moment. Quand je mentionne à Kosinski qu'il semble décrire un sociopathe, il s'éclaire. “Je l'utilise dans mes discussions!” dit-il. “Un sociopathe peut mettre un masque, il n'est pas vraiment triste, mais il peut jouer le rôle d'une personne triste.” Ce pouvoir de caméléon pourrait faire de l’IA un escroc supérieur. Avec zéro remords.