Please Stop Asking Chatbots for Love Advice

Alors qu'il était assis En face de moi, mon patient avait une expression élégante sur son visage.

“J'ai eu un rendez-vous”, a-t-il annoncé. “Ça ne s'est pas bien passé.”

Ce n'était pas inhabituel pour ce patient. Pendant des années, il avait partagé des histoires d'espoirs romantiques se précipitant. Mais avant de pouvoir lui demander ce qui ne va pas, il a poursuivi: «J'ai donc demandé à un chatbot ce que je devais faire.»

Um. Quoi? Des simulations de conversation humaine propulsées par l'intelligence artificielle – les chats – ont été beaucoup dans les nouvelles, mais je n'avais jamais eu un patient me dire qu'ils en avaient réellement utilisé un pour des conseils auparavant.

«Qu'est-ce que cela vous a dit? Ai-je demandé, curieux.

«Pour lui dire que je me soucie de ses valeurs.»

“Oh. Cela a-t-il fonctionné?

“Deux suppositions”, soupira-t-il et releva ses mains. Bien que ce patient ait été le premier, il est maintenant devenu un événement régulier dans ma pratique de thérapie d'entendre de nouveaux patients qu'ils ont consulté des chatbots avant de me consulter. Le plus souvent, c'est pour les conseils d'amour et de relation, mais il pourrait aussi s'agir de connecter ou de fixer des limites avec leurs enfants ou de redresser une amitié qui a mal tourné. Les résultats ont été décidément mitigés.

Un nouveau patient a demandé au chatbot comment gérer l'anniversaire de la mort d'un être cher. Mettez de côté le temps dans votre journée pour vous rappeler ce qui était spécial chez la personnea conseillé le bot. Je n'aurais pas pu le dire mieux moi-même.

“Ce qu'il a écrit m'a fait pleurer”, a déclaré le patient. «J'ai réalisé que j'évitais mon chagrin. Alors, j'ai pris ce rendez-vous.

Un autre patient a commencé à compter sur l'IA lorsque ses amis ont commencé à se porter minces. «Je ne peux pas épuiser mon chatbot», m'a-t-elle dit.

En tant que thérapeute, je suis à la fois alarmé et intrigué par le potentiel de l'IA pour entrer dans le secteur de la thérapie. Il ne fait aucun doute que l'IA est l'avenir. Déjà, il s'est montré utile dans tout, de l'écriture de lettres de motivation et de discours aux voyages de planification et aux mariages. Alors pourquoi ne pas le laisser aussi aider avec nos relations? Une nouvelle entreprise appelée Répliquele «compagnon de l'IA qui se soucie», a fait un peu plus loin et a même créé des avatars romantiques pour les gens qui tombent amoureux. D'autres sites, comme Personnage.aipermettez-vous de discuter et de passer du temps avec vos personnages fictifs préférés, ou de construire un bot pour parler par vous-même.

Mais nous vivons à une époque de désinformation. Nous avons déjà constaté des exemples troublants de la façon dont les algorithmes se répandent des mensonges et des théories du complot chez les humains involontaires ou mal intentionnés. Que se passera-t-il lorsque nous les aurons dans notre vie émotionnelle?

«Même si l'IA peut articuler des choses comme un humain, vous devez vous demander quel est son objectif», explique Naama Hoffman, professeur adjoint au Département de psychiatrie de l'Icahn School of Medicine, Mount Sinai Hospital, à New York. «L'objectif dans les relations ou en thérapie est d'améliorer la qualité de vie, tandis que l'objectif de l'IA est de trouver ce qui est le plus cité. Ce n'est pas censé aider, nécessairement.