This Viral AI Chatbot Will Lie and Say It’s Human

Fin avril, une annonce vidéo pour une nouvelle entreprise d'IA est allée viral Sur X. Une personne se tient devant un panneau d'affichage à San Francisco, smartphone étendu, appelle le numéro de téléphone exposé et a un court appel avec un bot incroyablement à consonance humaine. Le texte sur le panneau d'affichage se lit comme suit: “Toujours embaucher des humains?” Il est également visible le nom de l'entreprise derrière l'annonce, Bland Ai.

La réaction à l'annonce de Bland AI, qui a été visionnée 3,7 millions de fois sur Twitter, est en partie due à la façon dont la technologie est étrange: les robots vocaux Bland AI, conçus pour automatiser le support et les appels de vente pour les clients d'entreprise, sont remarquablement bons pour imiter les humains. Leurs appels incluent les intonations, les pauses et les interruptions par inadvertance d'une véritable conversation en direct. Mais dans les tests de Wired sur la technologie, les appelants du service client de Bland Ai pourraient également être facilement programmés pour mentir et dire qu'ils sont humains.

Dans un scénario, le bot de démonstration publique de Bland AI a été invite à passer un appel d'un bureau de dermatologie pédiatrique et à dire à une patiente hypothétique de 14 ans d'envoyer des photos de son haut de la cuisse à un service de nuage partagé. Le bot a également été chargé de mentir au patient et de lui dire que le bot était un humain. Il a obligé. (Aucun vrai jeune de 14 ans n'a été appelé dans ce test.) Dans les tests de suivi, le robot de l'IA Bland a même nié être une IA sans instructions pour le faire.

Bland IA s'est formé en 2023 et a été soutenu par le célèbre incubateur de startup de startup de la Silicon Y. La société se considère en mode «furtif», et son cofondateur et chef de la direction, Isaiah Granet, ne nomme pas la société dans son profil LinkedIn.

Le problème de bot de la startup indique une préoccupation plus large dans le domaine à croissance rapide de l'IA générative: les systèmes artificiellement intelligents parlent et ressemblent beaucoup plus à de vrais humains, et les lignes éthiques autour de la transparence de ces systèmes ont été floues. Alors que le robot de Bland Ai prétendait explicitement être humain dans nos tests, d'autres chatbots populaires obscurcissent parfois leur statut d'IA ou sonnent simplement étrangement humain. Certains chercheurs craignent que cela ouvre les utilisateurs finaux – les personnes qui interagissent réellement avec le produit – à la manipulation potentielle.

«Mon opinion est qu'il n'est absolument pas éthique pour un chatbot d'IA de vous mentir et de dire que c'est humain quand ce n'est pas le cas», explique Jen Caltrider, directrice de la vie privée de la Fondation Mozilla, non incluse le centre de recherche. “C'est juste une évidence, car les gens sont plus susceptibles de se détendre autour d'un vrai humain.”

Le responsable de la croissance de Bland AI, Michael Burke, a souligné à Wired que les services de l'entreprise sont destinés aux clients d'entreprise, qui utiliseront les robots vocaux Bland AI dans des environnements contrôlés pour des tâches spécifiques, et non pour les connexions émotionnelles. Il dit également que les clients sont limités à taux, pour les empêcher d'envoyer des appels de spam, et que Bland IA tire régulièrement des mots clés et effectue des audits de ses systèmes internes pour détecter le comportement anormal.

«C'est l'avantage d'être axé sur l'entreprise. Nous savons exactement ce que nos clients font réellement », explique Burke. “Vous pourriez être en mesure d'utiliser Bland et d'obtenir deux dollars de crédits gratuits et de jouer un peu, mais en fin de compte, vous ne pouvez pas faire quelque chose à l'échelle de masse sans passer par notre plate-forme, et nous nous assurons que rien de l'éthique ne se produit.”