Google DeepMind’s CEO Says Its Next Algorithm Will Eclipse ChatGPT

En 2014, DeepMind a été acquis par Google après avoir démontré des résultats frappants de logiciels qui ont utilisé l'apprentissage du renforcement pour maîtriser les jeux vidéo simples. Au cours des prochaines années, Deepmind a montré comment la technique fait des choses qui semblaient autrefois humaines – souvent avec des compétences surhumaines. Lorsque Alphago a battu le champion GO Lee Sedol en 2016, de nombreux experts de l'IA ont été stupéfaits, car ils avaient cru qu'il fallait des décennies avant que les machines ne compétent dans un jeu d'une telle complexité.

Nouvelle pensée

La formation d'un modèle grand langage comme le GPT-4 d'OpenAI consiste à alimenter de grandes quantités de texte organisé de livres, de pages Web et d'autres sources dans un logiciel d'apprentissage automatique connu sous le nom de transformateur. Il utilise les modèles de ces données de formation pour devenir compétents pour prédire les lettres et les mots qui devraient suivre un texte, un mécanisme simple qui s'avère étonnamment puissant pour répondre aux questions et générer du texte ou du code.

Une étape supplémentaire importante dans la fabrication de ChatGpt et des modèles de langage similaire est d'utiliser l'apprentissage du renforcement basé sur les commentaires des humains sur les réponses d'un modèle d'IA pour la finesse de ses performances. L'expérience profonde de Deepmind avec l'apprentissage du renforcement pourrait permettre à ses chercheurs de donner des capacités nouvelles de Gémeaux.

Hassabis et son équipe pourraient également essayer d'améliorer la technologie du modèle de langue grande avec des idées d'autres domaines de l'IA. Les chercheurs Deepmind travaillent dans des domaines allant de la robotique aux neurosciences, et plus tôt cette semaine, la société a démontré un algorithme capable de Apprendre à effectuer des tâches de manipulation avec un large éventail de différents bras robots.

L'apprentissage de l'expérience physique du monde, comme le font les humains et les animaux, devrait être largement important pour rendre l'IA plus capable. Le fait que les modèles linguistiques apprennent indirectement le monde, à travers le texte, est considéré par certains experts en IA comme une limitation majeure.

Avenir trouble

Hassabis est chargé d'accélérer les efforts d'IA de Google tout en gérant des risques inconnus et potentiellement graves. Les progrès récents et rapides dans les modèles linguistiques ont fait de nombreux experts de l'IA – y compris certains construire les algorithmes – se sont mis en vedette si la technologie sera mise à des utilisations malveillantes ou deviendra difficile à contrôler. Certains initiés technologiques ont même appelé à une pause sur le développement d'algorithmes plus puissants pour éviter de créer quelque chose de dangereux.

Hassabis dit que les avantages potentiels extraordinaires de l'IA – comme pour la découverte scientifique dans des domaines comme la santé ou le climat – rendent impératif que l'humanité n'arrête pas de développer la technologie. Il pense également que le mandat d'une pause n'est pas pratique, car il serait presque impossible de faire respecter. «Si cela est fait correctement, ce sera la technologie la plus bénéfique pour l'humanité de tous les temps», dit-il à propos de l'IA. «Nous devons aller audacieusement et courageusement ces choses.»

Cela ne signifie pas que Hassabis défend le développement de l'IA dans une ruée vers la tête. DeepMind explore les risques potentiels de l'IA avant que Chatgpt n'apparaît, et Shane Legg, l'un des cofondateurs de l'entreprise, a dirigé un groupe de «sécurité de l'IA» au sein de l'entreprise depuis des années. Hassabis a rejoint d'autres chiffres d'IA de haut niveau le mois dernier dans la signature d'une déclaration avertissant que l'IA pourrait un jour présenter un risque comparable à la guerre nucléaire ou à une pandémie.

L'un des plus grands défis en ce moment, dit Hassabis, est de déterminer quels sont les risques de l'IA plus capable. «Je pense que davantage de recherches dans le domaine doivent être effectuées – très urgente – des choses comme les tests d'évaluation», dit-il, pour déterminer à quel point les nouveaux modèles d'IA sont capables et contrôlables. À cette fin, dit-il, DeepMind peut rendre ses systèmes plus accessibles aux scientifiques extérieurs. «J'aimerais que le monde universitaire ait un accès précoce à ces modèles frontaliers», dit-il – un sentiment que s'il était suivi pourrait aider à répondre aux préoccupations que les experts en dehors des grandes entreprises sont exclus de la dernière recherche sur l'IA.

Dans quelle mesure devriez-vous être inquiet? Hassabis dit que personne ne sait vraiment avec certitude que l'IA deviendra un danger majeur. Mais il est certain que si les progrès se poursuivent à son rythme actuel, il n'y a pas beaucoup de temps pour développer des garanties. «Je peux voir le genre de choses que nous intégrons dans la série Gemini, et nous n'avons aucune raison de croire qu'ils ne fonctionneront pas», dit-il.