Dictatorships Will Be Vulnerable to Algorithms
L’IA est souvent considérée comme une menace pour les démocraties et une aubaine pour les dictateurs. En 2025, il est probable que les algorithmes continueront à saper le débat démocratique en propageant l’indignation, les fausses nouvelles et les théories du complot. En 2025, les algorithmes continueront également d’accélérer la création de régimes de surveillance totale, dans lesquels l’ensemble de la population est surveillée 24 heures sur 24.
Plus important encore, l’IA facilite la concentration de toutes les informations et de tous les pouvoirs dans un seul hub. Au XXe siècle, les réseaux d’information distribués comme ceux des États-Unis fonctionnaient mieux que les réseaux d’information centralisés comme ceux de l’URSS, parce que les apparatchiks humains au centre ne pouvaient tout simplement pas analyser efficacement toutes les informations. Remplacer les apparatchiks par des IA pourrait rendre les réseaux centralisés de style soviétique supérieurs.
Néanmoins, l’IA n’est pas qu’une bonne nouvelle pour les dictateurs. Il y a d’abord le fameux problème du contrôle. Le contrôle dictatorial est fondé sur la terreur, mais les algorithmes ne peuvent pas être terrorisés. En Russie, l’invasion de l’Ukraine est officiellement définie comme une « opération militaire spéciale », et y parler de « guerre » est un crime passible d’une peine d’emprisonnement pouvant aller jusqu’à trois ans. Si un chatbot sur Internet russe parle de « guerre » ou mentionne les crimes de guerre commis par les troupes russes, comment le régime pourrait-il punir ce chatbot ? Le gouvernement pourrait le bloquer et chercher à punir ses créateurs humains, mais cela est bien plus difficile que de discipliner les utilisateurs humains. De plus, des robots autorisés pourraient développer eux-mêmes des opinions dissidentes, simplement en repérant des tendances dans la sphère de l’information russe. C'est le problème de l'alignement, à la russe. Les ingénieurs humains russes peuvent faire de leur mieux pour créer des IA totalement alignées sur le régime, mais étant donné la capacité de l'IA à apprendre et à changer par elle-même, comment les ingénieurs peuvent-ils garantir qu'une IA qui a obtenu le sceau d'approbation du régime en 2024 le fera ? Ne vous aventurez-vous pas en territoire illicite en 2025 ?
La Constitution russe fait des promesses grandioses selon lesquelles « chacun se verra garantir la liberté de pensée et d’expression » (article 29.1) et « la censure sera interdite » (29.5). Presque aucun citoyen russe n’est assez naïf pour prendre ces promesses au sérieux. Mais les robots ne comprennent pas le double langage. Un chatbot chargé d’adhérer à la loi et aux valeurs russes pourrait lire cette constitution, conclure que la liberté d’expression est une valeur fondamentale de la Russie et critiquer le régime Poutine pour avoir violé cette valeur. Comment les ingénieurs russes pourraient-ils expliquer au chatbot que même si la constitution garantit la liberté d’expression, le chatbot ne devrait pas réellement croire à la constitution ni mentionner l’écart entre la théorie et la réalité ?
À long terme, les régimes autoritaires risquent d’être confrontés à un danger encore plus grand : au lieu de les critiquer, les IA pourraient en prendre le contrôle. Tout au long de l’histoire, la plus grande menace pour les autocrates provenait généralement de leurs propres subordonnés. Aucun empereur romain ou premier ministre soviétique n’a été renversé par une révolution démocratique, mais ils ont toujours été en danger d’être renversés ou transformés en marionnettes par leurs propres subordonnés. Un dictateur qui accorderait trop d’autorité aux IA en 2025 pourrait devenir leur marionnette à l’avenir.
Les dictatures sont bien plus vulnérables que les démocraties à une telle prise de contrôle algorithmique. Il serait difficile, même pour une IA super-machiavélique, d’accumuler du pouvoir dans un système démocratique décentralisé comme celui des États-Unis. Même si l’IA apprend à manipuler le président américain, elle pourrait se heurter à l’opposition du Congrès, de la Cour suprême, des gouverneurs des États, des médias, des grandes entreprises et de diverses ONG. Comment l’algorithme, par exemple, réagirait-il à une obstruction systématique du Sénat ? Prendre le pouvoir dans un système hautement centralisé est beaucoup plus facile. Pour pirater un réseau autoritaire, l’IA n’a besoin de manipuler qu’un seul individu paranoïaque.