The Boring Future of Generative AI

Cette semaine, à Sa conférence annuelle sur les développeurs d'E / S à Mountain View, Google a présenté un nombre de projets et de produits à la tête alimentés ou améliorés par l'IA. Ils comprenaient une version nouvelle et améliorée de son chatbot barde, des outils pour vous aider à rédiger des e-mails et des documents ou manipuler des images, des appareils avec AI cuits et une version expérimentale de type chatbot de Google Search. Pour un récapitulatif complet de l'événement, avec des commentaires perspicaces et pleins d'esprit de mes collègues câblés, consultez notre Google I / O Liveblog.

Le gros pivot de Google est, bien sûr, largement alimenté non pas par des algorithmes mais par une génération AI FOMO.

L'apparition en novembre dernier de Chatgpt – le chatbot remarquablement intelligent mais encore plutôt imparfait d'Openai – combiné avec Microsoft ajoutant la technologie à son moteur de recherche Bing quelques mois plus tard, a déclenché quelque chose de panique à Google. Chatgpt s'est avéré extrêmement populaire auprès des utilisateurs, démontrant de nouvelles façons de servir des informations qui menaçaient l'adhérence de Google sur le secteur de la recherche et sa réputation de leader en IA.

Les capacités des algorithmes de langue Chatgpt et de l'IA comme ceux qui l'alimentent sont si frappantes que certains experts, dont Geoffrey Hinton, un chercheur pionnier qui a récemment quitté Google, se sont sentis obligés d'avertir que nous pourrions construire des systèmes que nous aurons un jour du mal à contrôler. Le chatbot d'Openai est souvent étonnamment bon pour générer du texte cohérent sur un sujet donné, résumant les informations du Web et même répondant aux questions extrêmement délicates qui nécessitent des connaissances expertes.

Et pourtant, les modèles de langage IA sans entraves sont également des agents en argent du chaos. Ils fabriqueront volontiers des faits, exprimeront des préjugés désagréables et diront des choses désagréables ou dérangeantes avec la bonne incitation. Microsoft a été contraint de limiter les capacités du chat Bing peu de temps après le lancement pour éviter une telle mauvaise conduite embarrassante, en partie parce que son bot a divulgué son nom de code secret – Sydney – et accusé un New York Times journaliste de ne pas aimer son conjoint.

Google a travaillé dur pour atténuer la séquence chaotique de la technologie de génération de texte alors qu'elle préparait la fonction de recherche expérimentale annoncée hier qui répond aux requêtes de recherche avec des réponses de style Chat synthétisant des informations sur le Web.

La version plus intelligente de Google de la recherche est impressionnante, refusant d'utiliser la première personne ou de parler de ses pensées ou de ses sentiments. Il évite complètement des sujets qui pourraient être considérés comme risqués, refusant de dispenser des conseils médicaux ou d'offrir des réponses sur des sujets potentiellement controversés tels que la politique américaine.