OpenAI’s Boardroom Drama Could Mess Up Your Future
En juin, j'ai eu une conversation avec le scientifique en chef Ilya Sutskever au siège d'Openai, comme je l'ai signalé la couverture d'octobre de Wired. Parmi les sujets dont nous avons discuté figurait la structure inhabituelle de l'entreprise.
Openai a commencé comme un laboratoire de recherche à but non lucratif dont la mission était de développer l'intelligence artificielle au niveau normal ou au-delà de l'intelligence générale artificielle ou de l'AGI – de manière sûre. L'entreprise a découvert un chemin prometteur dans des modèles de grande langue qui génèrent du texte étonnamment fluide, mais le développement et la mise en œuvre de ces modèles nécessitaient d'énormes quantités d'infrastructure informatique et de montagnes en espèces. Cela a conduit Openai à créer une entité commerciale pour dessiner des investisseurs en dehors des investisseurs, et il a rapporté un partenaire majeur: Microsoft. Pratiquement tout le monde dans l'entreprise a travaillé pour ce nouveau bras à but lucratif. Mais des limites ont été placées sur la vie commerciale de l'entreprise. Le bénéfice réalisé aux investisseurs devait être plafonné – pour les premiers bailleurs de fonds à 100 fois ce qu'ils ont mis – après que Openai reviendrait à un pur organisme à but non lucratif. L'ensemble du Shebang était régi par le conseil d'administration d'origine à but non lucratif, qui n'a répondu qu'aux objectifs de la mission originale et peut-être de Dieu.
SUTSKEVER ne l'a pas apprécié lorsque j'ai plaisanté en disant que le tableau de l'organisation bizarre qui a cartographié cette relation ressemblait à quelque chose qu'un futur GPT pourrait trouver lorsqu'il a été invité à concevoir une esquive fiscale. «Nous sommes la seule entreprise au monde qui a une structure de profit plafonnée», m'a-t-il réprimandé. “Voici la raison pour laquelle cela a du sens: si vous croyez, comme nous, que si nous réussissons très bien, alors ces GPU vont prendre mon travail et votre travail et les emplois de tout le monde, il semble bien que cette entreprise ne fasse pas de montants vraiment illimités.” En attendant, pour s'assurer que la partie à la recherche de bénéfices de l'entreprise n'engage pas son engagement à s'assurer que l'IA ne devient pas incontrôlable, il y a cette planche, en gardant un œil sur les choses.
Ce potentiel tuteur de l'humanité est le même conseil qui a licencié Sam Altman vendredi dernier, affirmant qu'il n'avait plus confiance en le PDG parce que «il n'était pas toujours franc dans ses communications avec le conseil d'administration, entravant sa capacité à exercer ses responsabilités». Aucun exemple de ce comportement présumé n'a été fourni, et presque personne de l'entreprise ne connaissait le licenciement jusqu'à ce qu'il soit annoncé publiquement. Le PDG de Microsoft Satya Nadella et d'autres investisseurs n'ont pas été préavis. Les quatre administrateurs, représentant la majorité du conseil d'administration de six personnes, ont également lancé le président et président d'Openai, Greg Brockman, hors du conseil d'administration. Brockman a rapidement démissionné.
Après avoir parlé à quelqu'un qui connaissait la pensée du conseil d'administration, il me semble qu'en licenciant Altman, les administrateurs pensaient qu'il exécutait sa mission de s'assurer que l'entreprise développe une IA puissante en toute sécurité – tout comme la seule raison de l'exister. L'augmentation des bénéfices ou le chat de la chatte, le maintien de la commercialisation du lieu de travail et le maintien de Microsoft et d'autres investisseurs heureux n'étaient pas de leur préoccupation. De l'avis des réalisateurs Adam D'Angelo, Helen Toner et Tasha McCauley – et Sutskever – Altman n'en ont pas traité directement. Conclusion: le conseil d'administration ne faisait plus confiance à Altman pour poursuivre la mission d'Openai. Si le conseil d'administration ne peut pas faire confiance au PDG, comment peut-il protéger ou même suivre les progrès de la mission?
Je ne peux pas dire si la conduite d'Altman a vraiment mis en danger la mission d'Openai, mais je le sais: le conseil d'administration semble avoir raté la possibilité qu'une exécution mal expliquée d'un leader bien-aimé et charismatique pourrait nuire à cette mission. Les réalisateurs semblent avoir pensé qu'ils donneraient à Altman ses papiers de marche et à l'esclavage de façon abusive dans un remplaçant. Au lieu de cela, les conséquences ont été immédiates et volcaniques. Altman, déjà quelque chose d'un héros culte, est devenu même vénéré dans ce nouveau récit. Il a fait peu ou rien pour dissuader le tollé qui a suivi. Pour le conseil d'administration, les efforts d'Altman pour récupérer son poste et la révolte des employés des derniers jours, était une sorte de justification qu'il était juste de le rejeter. Sam intelligent est toujours à la hauteur! Pendant ce temps, toute la Silicon Valley a explosé, ternissant le statut d'Openai, peut-être en permanence.
Les empreintes digitales d'Altman n'apparaissent pas sur la lettre ouverte publiée lundi matin et signée par plus de 95% des 770 employés d'OpenAI qui indiquent que les réalisateurs sont «incapables de superviser Openai». Il indique que si les membres du conseil d'administration ne réintégrtent pas Altman et ne démissionnent pas, les travailleurs qui ont signé peuvent quitter et rejoindre une nouvelle division de recherche AI avancée à Microsoft, formée par Altman et Brockman. Au début, cette menace ne semblait pas bousculer la détermination des administrateurs, qui se sentaient apparemment comme on leur avait demandé de négocier avec des terroristes. Vraisemblablement, un réalisateur se sentait différemment: Sutskever, qui dit maintenant qu'il regrette ses actions. Sa signature est apparue sur la lettre de You-Quit-ou-We'll-Quit. Ayant apparemment supprimé sa méfiance envers Altman, Sutskever et Altman ont été Envoi de notes d'amour les uns aux autres sur X, la plate-forme appartenant à Elon Musk, un autre cofondateur d'Openai, maintenant éloigné du projet.