Chatbot Teamwork Makes the AI Dream Work
Se tourner vers un ami ou un collègue peut rendre les problèmes délicats plus faciles à résoudre. Maintenant, il semble que le fait de faire équipe avec les chatbots d'IA peut les rendre plus efficaces.
J'ai joué cette semaine Autogèneun cadre logiciel open source pour la collaboration des agents AI développé par Des chercheurs de Microsoft et des universitaires de la Pennsylvania State University, de l'Université de Washington et de l'Université Xidian en Chine. Le logiciel exploite le modèle grand langage d'Openai GPT-4 pour vous permettre de créer plusieurs agents d'IA avec différents personnages, rôles et objectifs qui peuvent être invités à résoudre des problèmes spécifiques.
Pour mettre l'idée de la collaboration de l'IA à l'épreuve, j'ai eu deux agents de l'IA à travailler ensemble sur un plan pour savoir comment écrire sur la collaboration de l'IA.
En modifiant le code d'Autogen, j'ai créé un «journaliste» et un «éditeur» qui a discuté de l'écriture sur la collaboration des agents AI. Après avoir parlé de l'importance de «montrer comment les industries telles que les soins de santé, le transport, la vente au détail et d'autres utilisent l'IA multi-agents», la paire a convenu que la pièce proposée devrait plonger dans les «dilemmes éthiques» posés par la technologie.
Il est trop tôt pour écrire beaucoup sur l'un de ces sujets suggérés – le concept de collaboration multi-agents d'IA est principalement à la phase de recherche. Mais l'expérience a démontré une stratégie qui peut amplifier la puissance des chatbots d'IA.
Les grands modèles de langue comme ceux derrière Chatgpt trébuchent souvent sur les problèmes mathématiques car ils fonctionnent en fournissant du texte statistiquement plausible plutôt que un raisonnement logique rigoureux. Dans un papier Présentés dans un atelier académique en mai, les chercheurs derrière Autogen montrent que le fait de collaborer des agents de l'IA peut atténuer cette faiblesse.
Ils ont constaté que deux à quatre agents travaillant ensemble pourraient résoudre les problèmes mathématiques de cinquième année de manière plus fiable qu'un agent seul. Dans leurs tests, les équipes ont également pu raisonner les problèmes d'échecs en les parlant, et ils ont pu analyser et affiner le code informatique en se parlant.
D'autres ont montré des avantages similaires lorsque plusieurs modèles d'IA différents – même ceux offerts par les rivaux d'entreprise – se préparent. Dans un projet présenté à la même atelier Lors d'une grande conférence AI appelée ICLR, un groupe du MIT et Google a obtenu le chatpt d'Openai et le barde de Google pour travailler ensemble en discutant et en débatant des problèmes. Ils ont découvert que le duo était plus susceptible de converger sur une solution correcte aux problèmes ensemble que lorsque les bots fonctionnaient en solo. Un autre article récent de chercheurs de l'UC Berkeley et de l'Université du Michigan a montré que le fait d'avoir un examen et de critiquer l'agent d'IA et de critiquer le travail d'un autre pourrait permettre au bot supervisé de mettre à niveau le code de l'autre agent, améliorant sa capacité à utiliser le navigateur Web d'un ordinateur.
Des équipes de LLM peuvent également être invitées à se comporter de manière étonnamment humaine. Un groupe de Google, de l'Université du Zhejiang en Chine et de l'Université nationale de Singapour, a constaté que attribuer des traits de personnalité distincts d'agents IAcomme «facile à vivre» ou «trop confiant», peut affiner leur performance collaborative, soit positivement ou négativement.
Et un article récent Dans The Economist, rassemble plusieurs projets multi-agents, dont un commandant par la défense Advanced Research Projects Agency du Pentagone. Dans cette expérience, une équipe d'agents d'IA a été chargée de rechercher des bombes cachées dans un labyrinthe de salles virtuelles. Alors que l'équipe multi-AI était meilleure pour trouver les bombes imaginaires qu'un agent solitaire, les chercheurs ont également constaté que le groupe avait spontanément développé une hiérarchie interne. Un agent a fini par diriger les autres alors qu'ils ont fait leur mission.
Graham Neubigprofesseur agrégé à l'Université Carnegie Mellon, qui a organisé l'atelier ICRL, expérimente la collaboration multi-agents pour le codage. Il dit que l'approche collaborative peut être puissante mais peut également conduire à de nouveaux types d'erreurs, car il ajoute plus de complexité. «Il est possible que les systèmes multi-agents soient la voie à suivre, mais ce n'est pas une conclusion perdue», explique Neubig.
Les gens adaptent déjà le cadre d'Open Source Autogen de manière intéressante, par exemple la création Chambres d'écrivains simulés pour générer des idées de fiction et un virtuel «Business-in-a-box» avec des agents qui assument différents rôles d'entreprise. Peut-être que ce ne sera pas trop longtemps avant que la mission que mes agents d'IA n'ait proposée doivent être écrites.