Toyota’s Robots Are Learning to Do Housework—By Copying Humans
La plupart des robots – et en particulier ceux qui font un travail précieux dans les entrepôts ou les usines – peuvent ne suivre que des routines préprogrammées qui nécessitent une expertise technique pour planifier. Cela les rend très précis et fiables mais totalement inadaptés à la gestion des travaux qui nécessitent une adaptation, une improvisation et une flexibilité, comme le balayage ou la plupart des autres tâches de la maison. Le fait que les robots apprennent à faire des choses pour eux-mêmes se sont révélés difficiles en raison de la complexité et de la variabilité du monde physique et des environnements humains, et de la difficulté d'obtenir suffisamment de données d'entraînement pour leur apprendre à faire face à toutes les éventualités.
Il y a des signes que cela pourrait changer. Les améliorations spectaculaires que nous avons vues dans les chatbots d'IA au cours de la dernière année ont incité de nombreux roboticiens à se demander si des sauts similaires pourraient être réalisables dans leur propre domaine. Les algorithmes qui nous ont donné des chatbots et des générateurs d'images impressionnants aident également déjà les robots à apprendre plus efficacement.
Le robot de balayage que j'ai formé utilise un système d'apprentissage automatique appelé politique de diffusion, similaire à ceux qui alimentent certains générateurs d'images d'IA, pour proposer la bonne action pour prendre ensuite en une fraction d'une seconde, basée sur les nombreuses possibilités et plusieurs sources de données. La technique a été développé par Toyota en collaboration avec des chercheurs dirigés par Chant shuranprofesseur à l'Université Columbia qui dirige maintenant un laboratoire de robots à Stanford.
Toyota essaie de combiner cette approche avec le type de modèles de langue qui sous-tendent le chatpt et ses rivaux. L'objectif est de permettre à des robots d'apprendre à effectuer des tâches en regardant des vidéos, en transformant potentiellement des ressources comme YouTube en ressources de formation de robots puissantes. Vraisemblablement, on montrera des clips de personnes faisant des choses sensées, pas les cascades douteuses ou dangereuses souvent trouvées sur les réseaux sociaux.
“Si vous n'avez jamais rien touché dans le monde réel, il est difficile de comprendre cette compréhension en regardant simplement les vidéos YouTube”, explique Russ Tedrera, vice-président de la recherche en robotique au Toyota Research Institute et professeur au MIT. L'espoir, dit Tedrake, est qu'une certaine compréhension de base du monde physique combiné avec des données générées dans la simulation permettra aux robots d'apprendre des actions physiques en regardant des clips YouTube. L'approche de diffusion «est capable d'absorber les données de manière beaucoup plus évolutive», dit-il.
Toyota annoncé Son Institut de robotique Cambridge en 2015 avec un deuxième institut et un siège social à Palo Alto, en Californie. Dans son pays d'origine, le Japon – comme aux États-Unis et dans d'autres pays riches – la population vieillit rapidement. L'entreprise espère construire des robots qui peuvent aider les gens à continuer de vivre une vie indépendante à mesure qu'ils vieillissent.
Le laboratoire de Cambridge compte des dizaines de robots travaillant sur les tâches, notamment des légumes, à l'aide de mélangeurs à main, de préparation de collations et de retournement des crêpes. Les modèles linguistiques s'avèrent utiles car ils contiennent des informations sur le monde physique, aidant les robots à comprendre les objets devant eux et comment ils peuvent être utilisés.
Il est important de noter que malgré de nombreuses démos assez lisses pour impressionner un visiteur occasionnel, les robots font toujours beaucoup d'erreurs. Comme les versions antérieures du modèle derrière Chatgpt, ils peuvent virer entre des erreurs semblables à l'humanité et commettant des erreurs étranges. J'ai vu un robot opérer sans effort un mélangeur manuel et un autre luttant pour saisir un bouteille.
Toyota n'est pas la seule grande entreprise technologique en espérant utiliser des modèles linguistiques pour faire progresser la recherche en robotique. La semaine dernière, par exemple, une équipe de Google Deepmind récemment révélé auto-rLogiciel qui utilise un modèle grand langage pour aider les robots à déterminer les tâches qu'ils pourraient réaliste – et en toute sécurité – dans le monde réel.
Des progrès sont également réalisés sur le matériel nécessaire pour faire progresser l'apprentissage des robots. La semaine dernière, un groupe de l'Université de Stanford dirigée par Chelsea Find Publié des vidéos d'un système de robotique téléopéré mobile à faible coût appelé Aloha. Ils disent que le fait qu'il est mobile permet au robot de s'attaquer à un plus large éventail de tâches, ce qui lui donne un plus large éventail d'expériences à apprendre d'un système verrouillé en un seul endroit.
Et bien qu'il soit facile d'être ébloui par des vidéos de démo robot, l'équipe Aloha était assez bonne pour publier un mettre en évidence les modes de bobine de défaillance Montrant le robot tâtonnant, brisant et renversant des choses. Espérons qu'un autre robot apprendra à nettoyer après cela.