I Used ChatGPT’s Advanced Voice Mode. It’s Fun, and Just a Bit Creepy

Je quitte les chatpt Mode vocal avancé sur tout en écrivant cet article comme un compagnon AI ambiant. Parfois, je lui demanderai de fournir un synonyme pour un mot surutilisé ou des encouragements. Environ une demi-heure, le chatbot interrompt notre silence et commence à me parler en espagnol, sans problème. Je rigole un peu et demande ce qui se passe. «Juste un petit changement? Je dois garder les choses intéressantes », explique Chatgpt, maintenant de retour en anglais.

Tout en testant le mode vocal avancé dans le cadre du début de l'alpha, mes interactions avec la nouvelle fonctionnalité audio de Chatgpt étaient divertissantes, désordonnées et étonnamment variées, bien qu'il convienne de noter que les fonctionnalités auxquelles j'avais accès n'étaient que la moitié de ce que Openai a démontré lorsqu'il a lancé le lancement de la Modèle GPT-4O en mai. L'aspect vision que nous avons vu dans la démo en direct est désormais prévu pour une version ultérieure, et la voix de ciel améliorée, qui Son L'acteur Scarlett Johanssen a repoussé, a été supprimé du mode vocal avancé et n'est plus une option pour les utilisateurs.

Alors, quelle est l'ambiance actuelle? À l'heure actuelle, le mode vocal avancé semble rappeler le moment où le chatpt basé sur le texte d'origine a chuté, à la fin de 2022. Parfois, il conduit à des impressions sans impact ou se transforme en platitudes IA vides. Mais d'autres fois, les conversations à faible latence cliquent d'une manière que Siri d'Apple ou Alexa d'Amazon n'a jamais eu pour moi, et je me sens obligé de continuer à discuter par plaisir. C'est le genre d'outil d'IA que vous montrerez à vos proches pendant les vacances pour rire.

Openai a donné à quelques journalistes câblés accès à la fonctionnalité une semaine après l'annonce initiale, mais l'a tiré le lendemain matin, citant des problèmes de sécurité. Deux mois plus tard, le mode vocal avancé à lancement doux Openai à un petit groupe d'utilisateurs et publié Carte système de GPT-4Oun document technique qui décrit les efforts d'équipement rouge, ce que l'entreprise considère comme des risques de sécurité et des mesures d'atténuation que l'entreprise a prises pour réduire les dommages.

Curieux de l'essayer vous-même? Voici ce que vous devez savoir sur le déploiement plus important du mode vocal avancé et mes premières impressions de la nouvelle fonctionnalité vocale de Chatgpt, pour vous aider à démarrer.

Alors, quand est le déploiement complet?

OpenAI a publié un mode vocal avancé audio uniquement vers certains utilisateurs de Chatgpt Plus fin juillet, et le groupe Alpha semble toujours relativement petit. L'entreprise prévoit de l'activer pour tous les abonnés cet automne. Niko Felix, un porte-parole d'Openai, n'a partagé aucun détail supplémentaire lorsqu'on lui a posé des questions sur le calendrier de publication.

Le partage d'écran et de vidéo faisait partie de la démo originale, mais ils ne sont pas disponibles dans ce test alpha. OpenAI prévoit d'éventuellement ajouter ces aspects, mais il n'est pas non plus clair quand cela se produira.

Si vous êtes un abonné Chatgpt Plus, vous recevrez un e-mail d'OpenAI lorsque le mode vocal avancé sera disponible pour vous. Une fois sur votre compte, vous pouvez basculer entre Standard et Avancé En haut de l'écran de l'application lorsque le mode vocal de Chatgpt est ouvert. J'ai pu tester la version alpha sur un iPhone ainsi qu'un pli Galaxy.

Mes premières impressions sur le mode vocal avancé de Chatgpt

Dans la toute première heure de la parole, j'ai appris que j'aime interrompre le chatppt. Ce n'est pas ainsi que vous parlez avec un humain, mais avoir la nouvelle capacité à couper le chat de la phrase et à demander une version différente de la sortie ressemble à une amélioration dynamique et à une fonctionnalité hors concours.

Les premiers adoptants qui étaient enthousiasmés par les démos originaux peuvent être frustrés pour avoir accès à une version du mode vocal avancé qui est limité avec plus de garde-corps que prévu. Par exemple, bien que le chant de l'IA génératif soit un élément clé des démos de lancement, avec berceuses chuchotées et plusieurs voix tenter de s'harmoniserLes sérenades AI sont absentes de la version alpha.