How Not to Be Stupid About AI, With Yann LeCun

Le shuffle à Openai a été appelé une sorte de victoire pour «l'accélérationnisme» de l'IA, qui est l'opposé du doomer-ism. Je sais que vous n'êtes pas un condamné, mais êtes-vous un accélérationniste?

Non, je n'aime pas ces étiquettes. Je n'appartiens à aucune de ces écoles de pensée ou, dans certains cas, à des cultes. Je suis extrêmement prudent de ne pas pousser des idées de ce type à l'extrême, car vous vous engagez trop facilement dans des cycles de pureté qui vous amènent à faire des choses stupides.

L'UE a récemment publié un ensemble de réglementations sur l'IA, et une chose qu'ils ont faite était en grande partie des modèles open source. Quel sera l'impact de cela sur Meta et autres?

Il affecte la méta dans une certaine mesure, mais nous avons suffisamment de muscle pour être conforme à la régulation. Il est beaucoup plus important pour les pays qui n'ont pas leurs propres ressources pour construire des systèmes d'IA à partir de zéro. Ils peuvent s'appuyer sur des plates-formes open source pour avoir des systèmes d'IA qui s'adressent à leur culture, à leur langue, à leurs intérêts. Il y aura un avenir, probablement pas si loin, où la grande majorité, sinon la totalité, de nos interactions avec le monde numérique sera médiée par des systèmes d'IA. Vous ne voulez pas que ces choses soient sous le contrôle d'un petit nombre d'entreprises en Californie.

Avez-vous été impliqué dans l'aide aux régulateurs à tirer cette conclusion?

J'étais, mais pas directement avec les régulateurs. J'ai parlé avec divers gouvernements, en particulier le gouvernement français, mais indirectement avec les autres également. Et en gros, ils ont reçu ce message selon lequel vous ne voulez pas que le régime numérique de vos citoyens soit contrôlé par un petit nombre de personnes. Le gouvernement français a acheté ce message assez tôt. Malheureusement, je ne parlais pas aux personnes au niveau de l'UE, qui étaient plus influencées par les prophéties de Doom et voulaient tout réglementer pour empêcher ce qu'ils pensaient être des scénarios de catastrophe possibles. Mais cela a été bloqué par les gouvernements français, allemand et italien, qui a dit que vous deviez prendre une disposition spéciale pour les plateformes open source.

Mais une IA open source n'est-elle pas vraiment difficile à contrôler et à réglementer?

Non. Pour les produits où la sécurité est vraiment importante, des réglementations existent déjà. Comme si vous allez utiliser l'IA pour concevoir votre nouveau médicament, il y a déjà une réglementation pour vous assurer que ce produit est sûr. Je pense que cela a du sens. La question que les gens débattent est de savoir s'il est logique de réglementer la recherche et le développement de l'IA. Et je ne pense pas que ce soit le cas.

Quelqu'un ne pourrait-il pas prendre un système open source sophistiqué qu'une grande entreprise publie et l'utiliser pour prendre le contrôle du monde? Avec l'accès aux codes source et aux poids, les terroristes ou les escrocs peuvent donner des disques destructeurs de systèmes AI.

Ils auraient besoin d'accéder à 2 000 GPU quelque part que personne ne peut détecter, assez d'argent pour le financer et suffisamment de talents pour faire le travail.

Certains pays ont beaucoup d'accès à ce type de ressources.

En fait, pas même la Chine, car il y a un embargo.

Je pense qu'ils pourraient éventuellement comprendre comment faire leurs propres puces AI.

C'est vrai. Mais ce serait quelques années derrière l'état de l'art. C'est l'histoire du monde: chaque fois que la technologie progresse, vous ne pouvez pas empêcher les méchants d'y avoir accès. Ensuite, c'est ma bonne IA contre votre mauvaise IA. La façon de rester en avance est de progresser plus rapidement. La façon de progresser plus rapidement est d'ouvrir la recherche, de sorte que la communauté plus large y contribue.