Google Search Is a Mess. Can Mobile AI Make It Better?
Au cours des dernières années Google a utilisé le mot «utile» pour décrire de nouvelles fonctionnalités ajoutées à son produit de recherche, son assistant vocal, son outil d'outil d'interdiction génératif, même ses écouteurs de pixel. Une recherche de mots clés pour le mot «utile» dans le propre blog de Google Corporate News rapporte plus de 1 200 résultats.
Selon ce que vous recherchez, cependant, le principal service de recherche de Google est devenu moins utile. Pour entendre un chroniqueur le décrire, Google Search est maintenant un “tragédie” C'est «gonflé et sur-monétisé». Le Temps financier note que c'est “Encombré de publicités”– Encyclopédie sans pages jaunes. Un ex-Googler proéminent blâme la qualité réduite de la recherche Google sur La dégradation du Web lui-même– Pas explicitement Google, qui offre toujours les informations du monde gratuitement à portée de main. Et Une étude récente des résultats des revues de produits montre que, malgré les indications de résultats de qualité inférieure à la recherche, Google fonctionne en fait mieux que certains de ses concurrents.
Mais il ne faut pas un groupe de chercheurs ou les informations d'identification d'un technologue de haut niveau pour effectuer une recherche rapide sur Google et remarquer que les premiers résultats, au moins, sont des publicités, avec plus d'encombrement apparaissant sous le pli numérique.
Google, comme les autres géants de la technologie, considère désormais l'IA génératrice comme un outil pour rationaliser et accélérer la recherche et chevauche désormais la ligne fine entre rendre la recherche véritablement plus intelligente et secouant davantage son interface utilisateur déjà surchaptée. Ses dernières annonces concernant une IA générative sur la recherche mobile font partie de cette expérience: est-il possible de rendre Google Search plus pratique, plus accessible, même si l'entreprise est toujours engagée dans la même stratégie publicitaire?
Plus tard ce mois-ci, les téléphones Android haut de gamme – le propre Pixel 8 et Pixel 8 Pro de Google ainsi que les nouveaux téléphones Galaxy S24 de Samsung – obtiendront quelques nouvelles fonctionnalités d'IA qui intègrent la recherche (et Google Lens, l'application de reconnaissance d'image de la société) directement dans d'autres applications au téléphone. L'une de ces fonctionnalités est appelée Circle to Search, qui vous permet d'utiliser le toucher pour sélectionner des images, du texte ou des vidéos dans une application et exécuter une recherche rapide dans une superposition qui apparaît en bas de l'écran.
Un exemple que Google a donné dans une démonstration précoce a été un échange de texto entre amis, où un ami a suggéré un restaurant et l'autre a pu se faire encercler pour le rechercher et obtenir des résultats pour le restaurant sans quitter l'application de texte. Un autre cas d'utilisation consisterait à pauser et à faire le tour d'un produit que vous repérez dans une vidéo Instagram et exécuterait une recherche de ce produit, encore une fois dans le même affichage d'application.
Avec l'aimable autorisation de Google
Ces deux cas d'utilisation sont des exemples d'une certaine efficacité de recherche – une sorte de utile, si vous voulez – car ils permettent à l'utilisateur d'exécuter des recherches sans basculer entre les applications. Mais ils présentent également des opportunités de commerce évidentes (ce qui est souvent pour quoi l'objectif est utilisé, en plus de l'observation de la nature), ce qui signifie qu'ils sont bons pour les activités publicitaires de Google. Google a confirmé que les annonces de recherche et de shopping continueront à apparaître dans des emplacements publicitaires dédiés dans la page de résultats. Étant donné que la superposition de recherche ne prendra qu'une fraction de votre affichage mobile, si les résultats sont des annonces, il pourrait rapidement finir par être plus frustrant que efficace.
C'est là que l'IA génératrice entre en jeu: une réponse résumée pourrait avoir plus de sens sur l'immobilier à écran limité, plutôt qu'une série de liens. La nouvelle fonction multi-recherches alimentée par Google fait quelque chose de similaire à Circle to Search, juste avec une entrée différente. Lorsque vous utilisez Google Lens maintenant – l'option de recherche visuelle dans l'application Google Mobile – en pointant votre téléphone sur un objet, les résultats incluront des «informations alimentées par AI» en plus des résultats de recherche que vous attendez déjà.