In Sudden Alarm, Tech Doyens Call for a Pause on ChatGPT

Un lettre ouverte Signé par des centaines d’experts en intelligence artificielle, des entrepreneurs technologiques et des scientifiques de la technologie appelle à une pause sur le développement et les tests des technologies d’IA plus puissantes que le modèle linguistique d’Openai GPT-4 afin que les risques qu’il puisse poser puisse être correctement étudiés.

Il avertit que les modèles de langue comme GPT-4 peuvent déjà rivaliser avec les humains à une gamme croissante de tâches et pourraient être utilisés pour automatiser les emplois et répandre la désinformation. La lettre soulève également la perspective lointaine des systèmes d’IA qui pourraient remplacer les humains et refaire la civilisation.

«Nous appelons tous les laboratoires d’IA à faire une pause immédiatement pendant au moins 6 mois la formation des systèmes d’IA plus puissante que GPT-4 (y compris le GPT-5 actuellement formé)», déclare la lettre, dont les signataires incluent Yoshua Bengio, professeur à l’Université de Montréal, considéré comme un pionnier de l’AI moderne, l’historien yuval Noah Harari, le skype cofounder Jaan Tall, et Twitter Musk Musk.

La lettre, qui a été écrite par le Future of Life Instituteune organisation axée sur les risques technologiques à l’humanité, ajoute que la pause devrait être «publique et vérifiable» et devrait impliquer tous ceux qui travaillent sur des modèles d’IA avancés comme GPT-4. Cela ne suggère pas comment s’arrêter sur le développement pourrait être vérifié, mais ajoute que «si une telle pause ne peut pas être promulguée rapidement, les gouvernements devraient intervenir et instituer un moratoire», quelque chose qui semble peu susceptible de se produire dans les six mois.

Microsoft et Google n’ont pas répondu aux demandes de commentaires sur la lettre. Les signataires incluent apparemment des personnes de nombreuses entreprises technologiques qui construisent des modèles de langage avancé, notamment Microsoft et Google. Hannah Wong, porte-parole d’Openai, a déclaré que la société a passé plus de six mois à travailler sur la sécurité et l’alignement de GPT-4 après avoir formé le modèle. Elle ajoute qu’Openai ne forme actuellement pas le GPT-5.

La lettre survient lorsque les systèmes d’IA font des sauts de plus en plus audacieux et impressionnants. Le GPT-4 n’a été annoncé qu’il y a deux semaines, mais ses capacités ont suscité un enthousiasme considérable et une bonne quantité de préoccupation. Le modèle de langue, qui est disponible via Chatgpt, le chatbot populaire d’Openai, marque fortement sur beaucoup tests académiqueset peut résoudre correctement les questions délicates qui sont généralement censées nécessiter une intelligence plus avancée que les systèmes d’IA ne l’ont précédemment démontré. Pourtant, GPT-4 fait également beaucoup de erreurs triviales et logiques. Et, comme ses prédécesseurs, il «hallucine» parfois des informations incorrectes, trahit les biais sociétaux ancrés et peut être invité à dire des choses haineuses ou potentiellement nocives.

Une partie de la préoccupation exprimée par les signataires de la lettre est qu’Openai, Microsoft et Google, ont commencé une course axée sur le profit pour développer et publier de nouveaux modèles d’IA le plus rapidement possible. À un tel rythme, soutient la lettre, les développements se produisent plus rapidement que la société et les régulateurs peuvent accepter.