Google Prepares for a Future Where Search Isn’t King
Le PDG de Google Sundar Pichai aime toujours le Web. Il se réveille chaque matin et lit TechMemeun agrégateur de nouvelles resplendissant avec des liens, accessible uniquement via le Web. Le Web est dynamique et résilient, dit-il, et peut encore – avec l'aide d'un moteur de recherche – fournissez les informations qu'une personne recherche.
Pourtant, le Web et sa couche de recherche critique changent. Nous pouvons tous le voir se produire: les applications de médias sociaux, la vidéo courte et l'IA générative remettent en question nos idéaux obsolètes de ce que signifie trouver des informations en ligne. Qualité Informations en ligne. Pichai le voit aussi. Mais il a plus de pouvoir que la plupart pour le diriger.
La façon dont Pichai déploie les Gémeaux, le modèle d'IA le plus puissant de Google, suggère que, bien qu'il aime le bon vieux Web, il est beaucoup plus intéressé par une version futuriste de celui-ci. Il doit être: les chatbots viennent pour lui.
Aujourd'hui, Google a annoncé que le chatbot qu'il avait lancé pour contrer le chatppt d'Openai, Bard, obtient un nouveau nom: Gemini, comme le modèle d'IA sur lequel il est basé, qui a été dévoilé pour la première fois en décembre. Le chatbot Gemini devient également mobile et s'éloigne de sa phase «expérimentale» et plus proche de la disponibilité générale. Il aura sa propre application sur Android et Prime Placement dans l'application Google Search sur iOS. Et la version la plus avancée de Gemini sera également proposée dans le cadre d'un package d'abonnement Google One de 20 $ par mois.
En publiant la version la plus puissante de Gemini avec un mur de paiement, Google vise directement le Chatgpt d'ascension rapide et le service d'abonnement Chatgpt Plus. Pichai expérimente également une nouvelle vision de ce que Google offre – pas remplacement Recherche, pas encore, mais construire une alternative pour voir ce qui colle.
“C'est ainsi que nous avons toujours approché la recherche, en ce sens que à mesure que la recherche évoluait, à mesure que le mobile est entré et que les interactions utilisateur ont changé, nous nous sommes adaptés”, dit Pichai, parlant avec Wired avant le lancement des Gémeaux. «Dans certains cas, nous dirigeons les utilisateurs, comme nous le sommes avec une IA multimodale. Mais je veux être flexible à propos de l'avenir, car sinon nous nous tromperons. »
Surcharge sensorielle
“Multimodal” est l'une des choses préférées de Pichai sur le modèle Gemini AI – l'un des éléments qui, selon Google, le distingue des instinctants de Chatgpt d'Openai et des assistants de Copilot AI de Microsoft, qui sont également alimentés par la technologie OpenAI. Cela signifie que Gemini a été formé avec des données dans plusieurs formats – pas seulement du texte, mais aussi de l'imagerie, de l'audio et du code. En conséquence, le modal fini parle couramment tous ces modes, et peut être invité à répondre à l'aide de texte ou de voix ou en claquant et partageant une photo.
“C'est ainsi que fonctionne l'esprit humain, où vous cherchez constamment des choses et que vous avez vraiment envie de se connecter au monde que vous voyez”, s'enthousiasme Pichai, disant qu'il cherchait depuis longtemps à ajouter cette capacité à la technologie de Google. “C'est pourquoi dans Google Search, nous avons ajouté Multi-Search, c'est pourquoi nous avons fait Google Lens [for visual search]. Donc, avec les Gémeaux, qui est nativement multimodal, vous pouvez y mettre des images, puis commencer à lui poser des questions. Cet aperçu de l'avenir est là où il brille vraiment. »