Google Assistant Finally Gets a Generative AI Glow-Up

David Ferrucci, PDG de l'IA Company Cognition élémentaire Et auparavant, l'exemple du projet Watson d'IBM, dit que les modèles linguistiques ont supprimé une grande partie de la complexité de la construction d'assistants utiles. Les commandes complexes d'analyse nécessitaient auparavant une énorme quantité de codage manuel pour couvrir les différentes variations du langage, et les systèmes finaux étaient souvent ennuyeux et sujets à l'échec. «Les grands modèles de langue vous donnent un énorme ascenseur», dit-il.

Ferrucci dit, cependant, que, parce que les modèles de langue ne sont pas bien adaptés à la fourniture d'informations précises et fiables, rendre un assistant vocal vraiment utile nécessitera toujours beaucoup d'ingénierie minutieuse.

Des assistants vocaux plus compétents et réalistes pourraient peut-être avoir des effets subtils sur les utilisateurs. L'énorme popularité de Chatgpt s'est accompagnée d'une confusion sur la nature de la technologie derrière elle ainsi que ses limites.

Motahhare Eslamiprofesseur adjoint à l'Université Carnegie Mellon qui étudie les interactions des utilisateurs avec les aides de l'IA, dit que les modèles de grands langues peuvent modifier la façon dont les gens perçoivent leurs appareils. La confiance frappante exposée par des chatbots tels que Chatgpt amène les gens à leur faire plus confiance qu'ils ne le devraient, dit-elle.

Les gens peuvent également être plus susceptibles d'anthropomorphiser un agent fluide qui a une voix, dit Eslami, ce qui pourrait encore faire comprendre leur compréhension de ce que la technologie peut et ne peut pas faire. Il est également important de s'assurer que tous les algorithmes utilisés ne propagent pas de biais nocifs autour de la race, qui peut se produire dans façons subtiles avec des assistants vocaux. «Je suis un fan de la technologie, mais il est livré avec des limites et des défis», explique Eslami.

Tom Gruberqui a cofondé Siri, la startup qu'Apple a acquise en 2010 pour sa technologie vocale d'assistant vocal du même nom, s'attend à ce que de grands modèles de langage produisent des sauts importants dans les capacités des assistants vocaux dans les années à venir, mais indique qu'ils peuvent également introduire de nouveaux défauts.

«Le plus gros risque – et la plus grande opportunité – est une personnalisation basée sur des données personnelles», explique Gruber. Un assistant ayant accès aux e-mails d'un utilisateur, aux messages Slack, aux appels vocaux, à la navigation Web et à d'autres données pourrait potentiellement aider à rappeler des informations utiles ou à dénicher des informations précieuses, surtout si un utilisateur peut s'engager dans une conversation naturelle. Mais ce type de personnalisation créerait également un nouveau référentiel potentiellement vulnérable de données privées sensibles.

«Il est inévitable que nous allions construire un assistant personnel qui sera votre mémoire personnelle, qui peut suivre tout ce que vous avez vécu et augmenter votre cognition», explique Gruber. “Apple et Google sont les deux plateformes de confiance, et ils pourraient le faire, mais ils doivent faire des garanties assez fortes.”

Hsiao dit que son équipe réfléchit certainement aux moyens de faire avancer l'assistant avec l'aide de Bard et de l'IA génératrice. Cela pourrait inclure l'utilisation d'informations personnelles, telles que les conversations dans Gmail d'un utilisateur, pour rendre les réponses aux requêtes plus individualisées. Une autre possibilité est que l'assistant entreprenait des tâches au nom d'un utilisateur, comme faire une réservation de restaurant ou réserver un vol.

Hsiao souligne cependant que le travail sur de telles fonctionnalités n'a pas encore commencé. Elle dit qu'il faudra un certain temps qu'un assistant virtuel soit prêt à effectuer des tâches complexes au nom d'un utilisateur et à manier sa carte de crédit. «Peut-être que dans un certain nombre d'années, cette technologie est devenue si avancée et si digne de confiance que oui, les gens seront prêts à le faire, mais nous devons tester et apprendre notre chemin à suivre», dit-elle.