What Really Made Geoffrey Hinton Into an AI Doomer
“Beaucoup de gros titres ont dit que je pense que cela devrait être arrêté maintenant – et je n'ai jamais dit cela”, dit-il. «Tout d'abord, je ne pense pas que ce soit possible, et je pense que nous devrions continuer à le développer parce que cela pourrait faire des choses merveilleuses. Mais nous devrions consacrer un effort égal à l'atténuation ou à la prévention des mauvaises conséquences possibles.»
Hinton dit qu'il n'a pas quitté Google pour protester contre sa gestion de cette nouvelle forme d'IA. En fait, dit-il, la société a déménagé relativement prudemment malgré une avance dans la région. Des chercheurs de Google ont inventé un type de réseau de neurones connu sous le nom de transformateur, qui a été crucial pour le développement de modèles comme Palm et GPT-4.
Dans les années 1980, Hinton, professeur à l'Université de Toronto, ainsi qu'une poignée d'autres chercheurs, ont cherché à donner aux ordinateurs une plus grande intelligence en formant des réseaux neuronaux artificiels avec des données au lieu de les programmer de manière conventionnelle. Les réseaux pourraient digérer les pixels en entrée et, comme ils ont vu plus d'exemples, ajuster les valeurs reliant leurs neurones grossièrement simulés jusqu'à ce que le système puisse reconnaître le contenu d'une image. L'approche a montré des promesses de promesses au fil des ans, mais ce n'est pas il y a dix ans que son véritable pouvoir et son potentiel est devenu apparent.
En 2018, Hinton a reçu le prix Turing, le prix le plus prestigieux de l'informatique, pour son travail sur les réseaux de neurones. Il a reçu le prix avec deux autres figures pionnières, Yann LeCunLe principal scientifique de l'IA de Meta, et Joshua Bengioprofesseur à l'Université de Montréal.
C'est à ce moment-là qu'une nouvelle génération de réseaux de neurones artificiels à plusieurs couches – des quantités abondantes de données de formation et exécutées sur de puissantes puces informatiques – étaient soudainement bien mieux que tout programme existant pour étiqueter le contenu des photographies.
La technique, connue sous le nom d'apprentissage en profondeur, a lancé une renaissance de l'intelligence artificielle, avec de grandes entreprises technologiques se précipitant pour recruter des experts en IA, construire des algorithmes d'apprentissage en profondeur de plus en plus puissants et les appliquer à des produits tels que la reconnaissance faciale, la traduction et la reconnaissance de la parole.
Google a embauché Hinton en 2013 après avoir acquis son entreprise, DNNResearch, fondée pour commercialiser les idées d'apprentissage en profondeur de son laboratoire universitaire. Deux ans plus tard, l'un des étudiants diplômés d'Hinton qui avait également rejoint Google, Ilya Sutskever, a quitté la société de recherche à Cofound Openai en tant que contrepoids à but non lucratif à la puissance amassée par les grandes entreprises technologiques en IA.
Depuis sa création, OpenAI s'est concentré sur la mise à l'échelle de la taille des réseaux de neurones, du volume de données qu'ils gardent et de la puissance de l'ordinateur qu'ils consomment. En 2019, la société s'est réorganisée en tant que société à but lucratif avec des investisseurs externes, puis a pris 10 milliards de dollars de Microsoft. Il a développé une série de systèmes de génération de texte de façon frappante, plus récemment GPT-4, qui alimente la version premium de Chatgpt et a stupéfait les chercheurs ayant sa capacité à effectuer des tâches qui semblent nécessiter un raisonnement et du bon sens.
Hinton pense que nous avons déjà une technologie qui sera perturbatrice et déstabilisante. Il souligne le risque, comme d'autres l'ont fait, que les algorithmes linguistiques plus avancés pourront mener des campagnes de désinformation plus sophistiquées et interférer dans les élections.