This New Tech Puts AI In Touch With Its Emotions—and Yours

Un nouveau «empathique Interface vocale »lancée aujourd'hui par Hume AIune startup basée à New York, permet d'ajouter une gamme de voix émotionnellement expressives, ainsi qu'une oreille émotionnellement à l'écoute, à de grands modèles de langue d'Anthropic, Google, Meta, Mistral et Openai – portant une époque où les aides AI peuvent plus Rescons régulièrement tout ce que nous jaillissons.

«Nous nous spécialisons dans la construction de personnalités empathiques qui parlent d'une manière que les gens parleraient, plutôt que les stéréotypes des assistants de l'IA», explique le cofondateur de Hume AI Alan Cowenun psychologue qui a co-auteur un certain nombre de documents de recherche sur l'IA et l'émotion, et qui travaillait auparavant sur les technologies émotionnelles chez Google et Facebook.

Wired a testé la dernière technologie vocale de Hume, appelée Evi 2 et a trouvé que sa sortie était similaire à celle développée par Openai pour Chatgpt. (Quand Openai a donné à Chatgpt une voix coquette en mai, le PDG de la société Sam Altman a présenté l'interface comme un sentiment “comme l'IA des films. ” Plus tard, une vraie star de cinéma, Scarlett Johansson, a affirmé qu'Openai avait arraché sa voix.)

Comme Chatgpt, Hume est beaucoup plus émotionnellement expressif que la plupart des interfaces vocales conventionnelles. Si vous lui dites que votre animal est décédé, par exemple, il adoptera un ton sombre et sympathique approprié. (De plus, comme avec Chatgpt, vous pouvez interrompre Hume Mid-Flow, et il s'arrêtera et s'adaptera avec une nouvelle réponse.)

Openai n'a pas dit à quel point son interface vocale essaie de mesurer les émotions des utilisateurs, mais Hume est expressément conçue pour le faire. Au cours des interactions, l'interface du développeur de Hume montrera des valeurs indiquant une mesure de choses comme la «détermination», «l'anxiété» et le «bonheur» dans la voix des utilisateurs. Si vous parlez à Hume avec un ton triste, il ramassera également cela, quelque chose que Chatgpt ne semble pas faire.

Hume facilite également le déploiement d'une voix avec des émotions spécifiques en ajoutant une invite dans son interface utilisateur. Le voici quand je lui ai demandé d'être «sexy et coquette»:

Message «sexy et coquette» de Hume Ai

Et lorsqu'on lui a dit d'être «triste et morose»:

Message “triste et morose” de Hume AI

Et voici le message particulièrement méchant lorsqu'on lui a demandé à être «en colère et impoli»:

Message «en colère et grossier» de Hume AI

La technologie ne semblait pas toujours comme poli et lisse en tant qu'Openai, et il s'est parfois comporté de manière étrange. Par exemple, à un moment donné, la voix accélére soudainement et cracha du charabia. Mais si la voix peut être raffinée et rendue plus fiable, elle a le potentiel d'aider à rendre les interfaces vocales semblables à l'homme plus courantes et variées.

L'idée de reconnaître, de mesurer et de simuler l'émotion humaine dans les systèmes technologiques remonte à des décennies et est étudiée dans un domaine appelé «informatique affective», Un terme introduit par Rosalind Picardprofesseur au MIT Media Lab, dans les années 1990.

Albert avait tortprofesseur à l'Université d'Utrecht aux Pays-Bas qui étudie l'informatique affective, est impressionné par la technologie de Hume AI et l'a récemment démontré à ses étudiants. «Ce que Evi semble faire, c'est d'attribuer des valeurs émotionnelles et des valeurs d'excitation [to the user]puis moduler le discours de l'agent en conséquence », dit-il. «C'est une tournure très intéressante sur les LLM.»