With OpenAI’s Release of GPT-4o, Is ChatGPT Plus Still Worth It?
Barret Zoph, un La recherche de recherche à Openai a récemment démontré le nouveau modèle GPT-4O et sa capacité à détecter les émotions humaines à travers une caméra pour smartphone lorsque Chatgpt a mal identifié son visage comme une table en bois. Après un rire rapide, Zoph a assuré à GPT-4O qu'il n'était pas une table et a demandé à l'outil IA de jeter un nouveau coup d'œil à la vidéo en direct de l'application plutôt qu'une photo qu'il a partagée plus tôt. “Ah, cela a plus de sens”, a déclaré la voix de l'IA de Chatgpt, avant de décrire son expression faciale et ses émotions potentielles.
Lundi, Openai a lancé un nouveau modèle Pour Chatgpt qui peut traiter le texte, l'audio et les images. Dans un virage surprenant, la société a annoncé que ce modèle, GPT-4O, serait disponible gratuitement, aucun abonnement requis. Il s'agit d'un déploiement précédent de la société de GPT-4, qui a été publié en mars 2023 pour ceux qui paient l'abonnement à 20 $ par mois à Chatgpt Plus. Dans cette version actuelle, de nombreuses fonctionnalités qui étaient auparavant prélevées pour payer les abonnés, comme la mémoire et la navigation Web, sont désormais également déployées aux utilisateurs gratuits.
L'année dernière, lorsque j'ai testé une version naissante de la capacité de navigation Web de Chatgpt, il avait des défauts mais était assez puissant pour rendre l'abonnement qui en vaut la peine pour les premiers adoptants qui cherchent à expérimenter les dernières technologies. Étant donné que le modèle d'IA le plus frais d'OpenAI, ainsi que les fonctionnalités précédemment fermés, sont disponibles sans abonnement, vous vous demandez peut-être si 20 $ par mois en valent toujours la peine. Voici une ventilation rapide pour vous aider à comprendre ce qui est disponible avec la version gratuite d'Openai par rapport à ce que vous obtenez avec Chatgpt Plus.
Qu'est-ce qui est disponible avec le chatppt gratuit?
Pour réitérer, vous n'avez besoin d'aucun type d'abonnement spécial pour commencer à utiliser le Modèle Openai GPT-4O aujourd'hui. Sachez simplement que vous êtes limité à un taux à moins d'invites par heure que les utilisateurs payants, alors réfléchissez aux questions que vous posez au chatbot ou vous brûlerez rapidement votre attribution d'invites.
En plus de l'accès GPT-4O limité, les utilisateurs non payants ont reçu une mise à niveau majeure de leur expérience utilisateur globale, avec plusieurs fonctionnalités qui étaient auparavant uniquement pour les clients payants. La boutique GPT, où n'importe qui peut publier une version de Chatgpt avec des instructions personnalisées, est désormais largement disponible. Les utilisateurs gratuits peuvent également utiliser l'outil de navigation Web de ChatGPT et les fonctionnalités de mémoire et peuvent télécharger des photos et des fichiers pour que le chatbot à analyser.
Qu'est-ce qui est encore fermé à Chatgpt Plus?
Bien que GPT-4O soit disponible sans abonnement, vous voudrez peut-être conserver ChatGpt Plus pour deux raisons: l'accès à plus d'invites et à des fonctionnalités plus récentes. “Vous pouvez utiliser le modèle beaucoup plus sur plus”, a déclaré Zoph à Wired. «Il y a aussi beaucoup d'autres choses futures passionnantes et futures à venir.» Par rapport aux non-subscripteurs, les abonnés ChatGpt Plus sont autorisés à envoyer GPT-4O cinq fois plus d'invites avant de devoir attendre ou passer à un modèle moins puissant. Donc, si vous voulez passer un temps décent sur la messagerie dans les deux sens avec l'option la plus puissante d'Openai, un abonnement est nécessaire.
Bien que certaines des fonctionnalités précédemment exclusives de Chatgpt Plus se déroulent aux utilisateurs non payants, les mises à jour les plus éclaboussantes sont toujours offertes en premier derrière le mur payant d'Openai. L'impressionnant mode vocal que Zoph a démontré sur scène arrive au cours des deux prochaines semaines pour les abonnés ChatGpt Plus.
Dans les vidéos de démonstration d'Openai, la voix de l'IA pétillante semble plus ludique que les itérations précédentes et est en mesure de répondre aux questions en réponse à un flux vidéo en direct. «Je pense honnêtement que les façons dont les gens vont découvrir les cas d'utilisation autour de cela va être incroyablement créatif», explique Zoph. Au cours de la présentation, il a également montré comment le mode vocal pouvait être utilisé pour traduire entre l'anglais et l'italien. Après la présentation, la société a publié une autre vidéo montrant la traduction de la parole fonctionnant en temps réel.