Six Months Ago Elon Musk Called for a Pause on AI. Instead Development Sped Up
Il y a six mois Cette semaine, de nombreux chercheurs, ingénieurs et entrepreneurs de l'IA éminents ont signé une lettre ouverte appelant à une pause de six mois sur le développement des systèmes d'IA plus capable que le dernier générateur de langue GPT-4 d'OpenAI. Il a fait valoir que l'IA avance si rapidement et imprévisiblement qu'elle pourrait éliminer d'innombrables emplois, nous inonder de désinformation et …Comme une vague de titres paniqués rapportés—Dester l'humanité. Oups!
Comme vous l'avez peut-être remarqué, la lettre n'a pas entraîné de pause dans le développement de l'IA, ni même un ralentissement à un rythme plus mesuré. Les entreprises ont plutôt accéléré leurs efforts pour construire une IA plus avancée.
Elon Musk, l'un des signataires les plus éminents, n'a pas attendu longtemps pour ignorer son propre appel à un ralentissement. En juillet, il a annoncé que XAI, une nouvelle entreprise qui, selon lui, chercherait à aller au-delà de l'IA existante et à rivaliser avec OpenAI, Google et Microsoft. Et de nombreux employés de Google qui ont également signé la lettre ouverte ont collé avec leur entreprise alors qu'il se prépare à publier un modèle d'IA appelé Gemini, qui possède des capacités plus larges que le GPT-4 d'OpenAI.
Wired a contacté plus d'une douzaine de signataires de la lettre pour demander quel effet ils pensent qu'il a eu et si leur alarme à propos de l'IA s'est approfondie ou s'estompa au cours des six derniers mois. Aucun qui a répondu ne semblait s'attendre à ce que la recherche sur l'IA s'arrête vraiment.
«Je n'ai jamais pensé que les entreprises allaient volontairement s'arrêter», explique Max Tegmark, un astrophysicien au MIT qui dirige le Future of Life Institute, l'organisation derrière la lettre – un aveu que certains pourraient affirmer que tout le projet est cynique. Tegmark dit que son objectif principal n'était pas de faire une pause AI mais de légitimer la conversation sur les dangers de la technologie, jusqu'à et y compris le fait qu'il pourrait tourner contre l'humanité. Le résultat «a dépassé mes attentes», dit-il.
Les réponses à mon suivi montrent également l'énorme diversité des préoccupations que les experts ont à propos de l'IA – et que de nombreux signataires ne sont pas réellement obsédés par le risque existentiel.
Lars Kotthoffun professeur agrégé à l'Université du Wyoming, dit qu'il ne signerait pas la même lettre aujourd'hui parce que beaucoup de ceux qui ont demandé une pause travaillent toujours pour faire avancer l'IA. «Je suis ouvert à la signature de lettres qui vont dans une direction similaire, mais pas exactement comme celle-ci», explique Kotthoff. Il ajoute que ce qui le concerne le plus aujourd'hui, c'est la perspective d'une «réaction sociétale contre les développements de l'IA, qui pourrait précipiter un autre hiver de l'IA» en annulant le financement de la recherche et en faisant rejeter les produits et outils de l'IA.
D'autres signataires m'ont dit qu'ils signeraient avec plaisir, mais leurs grands inquiétudes semblent impliquer des problèmes à court terme, tels que la désinformation et les pertes d'emplois, plutôt que des scénarios Terminator.
«À l'ère d'Internet et de Trump, je peux plus facilement voir comment l'IA peut conduire à la destruction de la civilisation humaine en déformant des informations et en corrompant les connaissances», explique Richard Kiehlprofesseur travaillant sur la microélectronique à l'Arizona State University.
«Allons-nous obtenir Skynet qui va pirater tous ces serveurs militaires et lancer des armes nucléaires sur toute la planète? Je ne pense vraiment pas », dit Stephen Manderun doctorant travaillant sur l'IA à l'Université Lancaster au Royaume-Uni. Il voit cependant un déplacement de travail généralisé imminent et l'appelle un «risque existentiel» à la stabilité sociale. Mais il craint également que la lettre ait incité plus de gens à expérimenter l'IA et reconnaissent qu'il n'a pas agi sur l'appel de la lettre pour ralentir. «Après avoir signé la lettre, qu'ai-je fait au cours de la dernière année? J'ai fait des recherches sur l'IA », dit-il.
Malgré l'incapacité de la lettre à déclencher une pause répandue, elle a aidé à propulser l'idée que l'IA pouvait étouffer l'humanité dans un sujet de discussion grand public. Il a été suivi d'une déclaration publique signée par les dirigeants d'Openai et de la division de l'IA DeepMind de Google qui a comparé le risque existentiel posé par l'IA à celui des armes nucléaires et des pandémies. Le mois prochain, le gouvernement britannique accueillera une conférence internationale de «sécurité de l'IA»où les dirigeants de nombreux pays discuteront des dommages possibles que l'IA pourrait causer, y compris les menaces existentielles.