Your ChatGPT Relationship Status Shouldn’t Be Complicated
La technologie derrière Chatgpt existe depuis plusieurs années sans tirer beaucoup de préavis. C'est l'ajout d'une interface chatbot qui l'a rendu si populaire. En d'autres termes, ce n'était pas un développement en IA en soi, mais un changement dans la façon dont l'IA a interagi avec des personnes qui ont attiré l'attention du monde.
Très rapidement, les gens ont commencé à penser à Chatgpt comme une entité sociale autonome. Ce n'est pas surprenant. Dès 1996, Byron Reeves et Clifford Nass ont examiné les ordinateurs personnels de leur temps et trouvé Ce «assimiler la vie médiée et réelle n'est ni rare ni déraisonnable. Il est très courant, il est facile de favoriser, il ne dépend pas de l'équipement multimédia sophistiqué, et la pensée ne le fera pas disparaître.“ En d'autres termes, l'attente fondamentale des gens de la technologie est qu'elle se comporte et interagit comme un être humain, même lorsqu'ils savent que c'est «seulement un ordinateur». Sherry Turkle, une professeure du MIT qui a étudié les agents et les robots de l'IA depuis les années 1990, souligne le même point Et affirme que les formes de communication réalistes, telles que le langage corporel et les indices verbaux, «poussent nos boutons darwiniens» – ils ont la capacité de nous faire expérimenter la technologie comme sociale, même si nous comprenons rationnellement que ce n'est pas le cas.
Si ces chercheurs ont vu le potentiel social – et le risque – dans des interfaces informatiques vieilles de plusieurs décennies, il est raisonnable de supposer que le chatgpt peut également avoir un effet similaire et probablement plus fort. Il utilise la langue à la première personne, conserve le contexte et fournit des réponses dans un style convaincant, confiant et conversationnel. L'implémentation de Bing de Chatgpt utilise même des emojis. C'est tout à fait un pas sur l'échelle sociale de la sortie plus technique que l'on obtiendrait de la recherche, par exemple, Google.
Les critiques de Chatgpt se sont concentrés sur le nuire que ses sorties peuvent causercomme la désinformation et le contenu haineux. Mais il existe également des risques dans le simple choix d'un style de conversation social et dans la tentative de l'IA d'imiter les gens aussi étroitement que possible.
Les risques des interfaces sociales
New York Times Le journaliste Kevin Roose s'est retrouvé pris dans un Conversation de deux heures avec le chatbot de Bing Cela s'est terminé dans la déclaration d'amour du chatbot, même si Roose lui a demandé à plusieurs reprises de s'arrêter. Ce type de manipulation émotionnelle serait encore plus nocif pour les groupes vulnérables, tels que les adolescents ou les personnes qui ont connu du harcèlement. Cela peut être très troublant pour l'utilisateur, et utiliser la terminologie humaine et les signaux émotionnels, comme les emojis, est également un forme de tromperie émotionnelle. Un modèle de langue comme Chatgpt n'a pas d'émotions. Il ne rit ni ne pleure. Il ne comprend même pas le sens de telles actions.
La tromperie émotionnelle dans les agents de l'IA n'est pas seulement moralement problématique; Leur conception, qui ressemble aux humains, peut également rendre ces agents plus convaincants. La technologie qui agit de manière humaine est susceptible de persuader les gens d'agir, même lorsque Les demandes sont irrationnelles, faites par un agent d'IA défectueuxet dans les situations d'urgence. Leur persuasion est dangereuse car les entreprises peuvent les utiliser d'une manière qui n'est pas désirée ou même inconnue des utilisateurs, de les convaincre d'acheter des produits pour influencer leurs opinions politiques.
En conséquence, certains ont pris du recul. Des chercheurs en conception de robots, par exemple, ont promu une approche non humaine Pour réduire les attentes des gens en matière d'interaction sociale. Ils suggèrent des conceptions alternatives qui ne reproduisent pas les modes d'interaction des gens, établissant ainsi des attentes plus appropriées d'une technologie.
Définition des règles
Certains des risques des interactions sociales avec les chatbots peuvent être traités en concevant des rôles sociaux et des limites clairs pour eux. Les humains choisissent et changent de rôle tout le temps. La même personne peut faire des allers-retours entre ses rôles de parent, d'employé ou de frère. Sur la base du passage d'un rôle à un autre, le contexte et les limites attendues de l'interaction changent également. Vous n'utiliseriez pas la même langue lorsque vous parlez à votre enfant que vous le feriez pour discuter avec un collègue.
En revanche, Chatgpt existe dans un vide social. Bien qu'il y ait des lignes rouges qu'il essaie de ne pas traverser, il n'a pas de rôle social ou d'expertise clair. Il n'a pas non plus d'objectif spécifique ou d'une intention prédéfinie. C'était peut-être un choix conscient d'Openai, les créateurs de Chatgpt, pour promouvoir une multitude d'utilisations ou une entité à faire. Plus probablement, ce n'était qu'un manque de compréhension de la portée sociale des agents conversationnels. Quelle que soit la raison, cette ouverture ouvre la voie à des interactions extrêmes et risquées. La conversation pourrait suivre n'importe quel itinéraire, et l'IA pourrait assumer n'importe quel rôle social, de l'assistant par e-mail efficace à amant obsessionnel.