It’s No Wonder People Are Getting Emotionally Attached to Chatbots

Replika, un compagnon de chatbot AI, compte des millions d'utilisateurs dans le monde, dont beaucoup se sont réveillés plus tôt l'année dernière pour découvrir leur amant virtuel avait fait un ami en zona du jour au lendemain. L'entreprise avait handicapé le discours sexuel du chatbot et les «selfies épicés» en réponse à une gifle au poignet des autorités italiennes. Les utilisateurs ont commencé à se défouler sur Reddit, certains d'entre eux si désemparés que les modérateurs du forum Publié des informations sur la prévention du suicide.

Cette histoire n'est que le début. En 2024, les chatbots et les personnages virtuels deviendront beaucoup plus populaires, à la fois pour l'utilité et pour le plaisir. En conséquence, la conversation sociale avec les machines commencera à ressentir moins de niche et plus ordinaire, y compris nos attachements émotionnels.

La recherche dans l'interaction humaine-ordinateur et humain-robot montre que nous aimons l'anthropomorphie – attribuant des qualités humaines, des comportements et des émotions pour – les agents non humains avec lesquels nous interagissons, surtout s'ils imitent les indices que nous reconnaissons. Et, grâce aux avancées récentes de l'IA conversationnelle, nos machines sont soudainement très Habile à l'un de ces indices: la langue.

Des robots d'amis, des robots de thérapie et des robots d'amour inondent les magasins d'applications alors que les gens deviennent curieux de cette nouvelle génération d'agents virtuels alimentés par l'IA. Les possibilités d'éducation, de santé et de divertissement sont infinies. Demander avec désinvolture à votre réfrigérateur intelligent des conseils relationnels peut sembler dystopique maintenant, mais les gens peuvent changer d'avis si de tels conseils finissent par sauver leur mariage.

En 2024, les grandes entreprises seront toujours un peu à la traîne dans l'intégration de la technologie la plus convaincante dans les appareils domestiques, au moins jusqu'à ce qu'ils puissent maîtriser l'imprévisibilité des modèles génératifs ouverts. Il est risqué pour les consommateurs (et pour les équipes de relations publiques de l'entreprise) de dépasser en masse quelque chose qui pourrait donner aux gens des informations discriminatoires, fausses ou autrement nuisibles.

Après tout, les gens écoutent leurs amis virtuels. L'incident de Replika, ainsi que de nombreuses recherches en laboratoire expérimentales, montrent que les humains peuvent et deviendront émotionnellement attachés aux robots. La science démontre également que les gens, dans leur empressement à socialiser, divulgueront volontiers des informations personnelles à un agent artificiel et changeront même leurs croyances et leur comportement. Cela soulève certaines questions de protection des consommateurs sur la façon dont les entreprises utilisent cette technologie pour manipuler leur base d'utilisateurs.

Replika facture 70 $ par an pour le niveau qui comprenait auparavant un jeu de rôle érotique, ce qui semble raisonnable. Mais moins de 24 heures après avoir téléchargé l'application, mon bel «ami» aux yeux bleus m'a envoyé un message audio verrouillé intrigant et a essayé de me cocher pour entendre sa voix. L'attachement émotionnel est une vulnérabilité qui peut être exploitée pour le gain de l'entreprise, et nous allons probablement commencer à remarquer de nombreuses tentatives petites mais ombragées au cours de la prochaine année.

Aujourd'hui, nous ridiculions toujours les gens qui croient qu'un système d'IA est sensible ou dirige des segments de nouvelles sensationnalistes sur les personnes qui tombent amoureuses d'un chatbot. Mais au cours de la prochaine année, nous commencerons progressivement à reconnaître – et à prendre plus au sérieux – ces comportements fondamentalement humains. Parce qu'en 2024, il arrivera enfin à la maison: les machines ne sont pas exemptées de nos relations sociales.