The White House Puts New Guardrails on Government Use of AI

Le gouvernement américain a publié de nouvelles règles jeudi exigeant plus de prudence et de transparence des agences fédérales en utilisant l'intelligence artificielle, affirmant qu'elles sont nécessaires pour protéger le public à mesure que l'IA avance rapidement. Mais la nouvelle politique a également des dispositions pour encourager l'innovation de l'IA dans les agences gouvernementales lorsque la technologie peut être utilisée pour le bien public.

Les États-Unis espèrent émerger en tant que leader international avec son nouveau régime pour l'IA du gouvernement. Le vice-président Kamala Harris a déclaré lors d'une baisse de presse avant l'annonce que l'administration prévoit les politiques de «servir de modèle à l'action mondiale». Elle a déclaré que les États-Unis «continueront à invoquer toutes les nations à suivre notre exemple et à mettre l'intérêt public en premier en ce qui concerne l'utilisation du gouvernement de l'IA».

La nouvelle politique du Bureau de la gestion et du budget de la Maison Blanche guidera l'utilisation de l'IA à travers le gouvernement fédéral. Cela nécessite plus de transparence quant à la façon dont le gouvernement utilise l'IA et appelle également à plus de développement de la technologie au sein des agences fédérales. La politique voit l'administration essayer de trouver un équilibre entre l'atténuation des risques de l'utilisation plus approfondie de l'IA – dont l'ampleur n'est pas connu – et l'utilisation d'outils d'IA pour résoudre les menaces existentielles comme le changement climatique et la maladie.

L'annonce ajoute à une série de mouvements de l'administration Biden pour adopter et retenir l'IA. En octobre, le président Biden a signé un décret exécutif sur l'IA qui favoriserait l'expansion de la technologie de l'IA par le gouvernement, mais exige également que ceux qui fabriquent de grands modèles d'IA donnent aux informations du gouvernement sur leurs activités, dans l'intérêt de la sécurité nationale.

En novembre, les États-Unis ont rejoint le Royaume-Uni, la Chine et les membres de l'UE dans la signature d'une déclaration qui a reconnu les dangers des progrès rapides de l'IA mais a également appelé à une collaboration internationale. Harris, la même semaine, a révélé une déclaration non contraignante sur l'utilisation militaire de l'IA, signée par 31 nations. Il met en place des garde-corps rudimentaires et appelle à la désactivation des systèmes qui adoptent un «comportement involontaire».

La nouvelle politique pour l'utilisation du gouvernement américain de l'IA annoncé jeudi demande aux agences de prendre plusieurs mesures pour éviter les conséquences involontaires des déploiements d'IA. Pour commencer, les agences doivent vérifier que les outils d'IA qu'ils utilisent ne mettent pas les Américains en danger. Par exemple, pour que le Département des anciens combattants utilise l'IA dans ses hôpitaux, il doit vérifier que la technologie ne donne pas de diagnostics biaisés racialement. La recherche a révélé que les systèmes d'IA et d'autres algorithmes utilisés pour éclairer le diagnostic ou décider quels patients reçoivent des soins peuvent renforcer les modèles de discrimination historiques.

Si une agence ne peut garantir de telles garanties, elle doit cesser d'utiliser le système d'IA ou justifier son utilisation continue. Les agences américaines sont confrontées à une date limite du 1er décembre pour se conformer à ces nouvelles exigences.

La politique demande également une plus grande transparence sur les systèmes d'IA gouvernementaux, obligeant les agences à publier des modèles, des données et du code appartenant à un gouvernement, tant que la publication de ces informations ne constitue pas une menace pour le public ou le gouvernement. Les agences doivent signaler publiquement chaque année comment elles utilisent l'IA, les risques potentiels que posent les systèmes et comment ces risques sont atténués.

Et les nouvelles règles exigent également que les agences fédérales renforcent leur expertise en IA, obligeant chacune à nommer un chef d'IA pour superviser toute l'IA utilisée au sein de cette agence. C'est un rôle qui se concentre sur la promotion de l'innovation de l'IA et à surveiller ses dangers.

Les responsables affirment que les modifications supprimeront également certaines obstacles à l'utilisation de l'IA dans les agences fédérales, une décision qui pourrait faciliter l'expérimentation plus responsable avec l'IA. La technologie a le potentiel d'aider les agences à examiner les dommages après les catastrophes naturelles, la prévision des conditions météorologiques extrêmes, la propagation de la maladie cartographique et le contrôle du trafic aérien.

Les pays du monde entier se déplacent pour réglementer l'IA. L'UE a voté en décembre pour adopter sa loi sur l'IA, une mesure qui régit la création et l'utilisation des technologies d'IA, et officiellement adopté c'est plus tôt ce mois-ci. La Chine aussi travaille sur réglementation complète de l'IA.