The AI Doomsday Bible Is a Book About the Atomic Bomb
Chercheurs en intelligence artificielle Peut se demander s'ils sont dans une course d'armement moderne pour des systèmes d'IA plus puissants. Si oui, qui est-ce entre? La Chine et les États-Unis – ou la poignée de laboratoires principalement basés aux États-Unis développant ces systèmes?
Cela peut ne pas avoir d'importance. Une leçon de La fabrication de l'atomique Bombe Est-ce que les races imaginées sont un motivateur aussi puissant que les vraies. Si un laboratoire AI se calme, c'est parce qu'il a du mal à faire avancer la science, ou est-ce un signe que quelque chose de majeur est en cours?
Lorsque OpenAI a publié Chatgpt en novembre 2022, la direction de Google a annoncé un code rouge Situation pour sa stratégie d'IA et d'autres laboratoires ont doublé sur leurs efforts pour apporter des produits au public. «L'attention [OpenAI] J'ai clairement créé un certain niveau de dynamique de race », explique David Manheim, responsable des politiques et de la recherche à l'Association pour l'existence et la résilience à long terme en Israël.
Plus de transparence entre les entreprises pourrait aider à éliminer une telle dynamique. Les États-Unis ont gardé le projet de Manhattan un secret de l'URSS, n'informant que son allié de sa nouvelle arme dévastatrice une semaine après le test de la Trinité. Lors de la conférence de Potsdam le 24 juillet 1945, le président Truman a haussé les épaules de son traducteur et se dirigea vers le premier ministre soviétique pour lui annoncer la nouvelle. Joseph Staline ne semblait pas impressionné par la révélation, disant seulement qu'il espérait que les États-Unis utiliseraient l'arme contre les Japonais. Dans des conférences, il a donné près de 20 ans plus tard, Oppenheimer a suggéré que C'était le moment Le monde a perdu la chance d'éviter une course aux armes nucléaires mortelle après la guerre.
En juillet 2023, le Maison Blanche sécurisée Une poignée d'engagements volontaires des laboratoires AI qui ont au moins hoché la tête vers un élément de transparence. Sept entreprises d'IA, dont OpenAI, Google et Meta, ont convenu de faire tester leurs systèmes par des experts internes et externes avant leur libération et également de partager des informations sur la gestion des risques d'IA avec les gouvernements, la société civile et le monde universitaire.
Mais si la transparence est cruciale, les gouvernements doivent être précis sur les types de dangers contre lesquels ils protègent. Bien que les premières bombes atomiques soient «de force destructrice inhabituelle» – pour utiliser la phrase de Truman – le type de destruction à l'échelle de la ville qu'ils pouvaient provoquer n'était pas totalement inconnu pendant la guerre. Les nuits des 9 et 10 mars 1945, des bombardiers américains ont laissé tomber plus de 2 000 tonnes de bombes incendiaires sur Tokyo lors d'un raid qui a tué plus de 100 000 habitants – un nombre similaire à celle qui a été tuée dans le bombardement d'Hiroshima. L'une des principales raisons pour lesquelles Hiroshima et Nagasaki ont été choisis comme cibles des premières bombes atomiques était qu'ils étaient deux des quelques villes japonaises qui n'avaient pas été complètement décimées par les bombardements. Les généraux américains pensaient qu'il serait impossible d'évaluer le pouvoir destructeur de ces nouvelles armes si elles étaient déposées sur des villes qui étaient déjà vidés.
Lorsque les scientifiques américains ont visité Hiroshima et Nagasaki après la guerre, ils ont vu que ces deux villes ne semblaient pas si différentes des autres villes qui avaient été bombardées par des armes plus conventionnelles. “Il y avait un sentiment général que, lorsque vous pouviez combattre une guerre avec des armes nucléaires, une dissuasion ou non, vous en auriez besoin de pas mal d'entre eux pour le faire correctement”, Rhodes dit récemment sur le podcast La société lunaire. Mais les armes nucléaires de fusion les plus puissantes développées après la guerre étaient des milliers de fois plus puissantes que les armes de fission ont chuté sur le Japon. Il était difficile d'apprécier vraiment la quantité de destruction stockée pendant la guerre froide simplement parce que les armes nucléaires antérieures étaient si petites en comparaison.
Il y a aussi un problème d'ordre de magnitude en ce qui concerne l'IA. Les algorithmes biaisés et les systèmes d'IA mal implémentés menacent déjà les moyens de subsistance et la liberté aujourd'hui, en particulier pour les personnes dans les communautés marginalisées. Mais les pires risques de l'IA se cachent quelque part dans le futur. Quelle est la véritable ampleur du risque pour lequel nous préparons – et que pouvons-nous faire à ce sujet?