A Trump Win Could Unleash Dangerous AI

Les conservateurs s’inquiètent davantage des corrections excessives apportées par les sociétés d’IA à ce problème que du problème lui-même. “Il existe une corrélation inverse directe entre le degré d'éveil d'une IA et son utilité”, explique Helberg, citant un premier problème avec la plateforme d'IA générative de Google.

Les Républicains veulent que le NIST se concentre sur les risques liés à la sécurité physique de l'IA, y compris sa capacité à aider les terroristes à fabriquer des armes biologiques (ce que l'EO de Biden s'adresse-t-il). Si Trump gagne, ses personnes nommées minimiseront probablement l’importance des recherches gouvernementales sur les méfaits sociaux de l’IA. Helberg se plaint que « l’énorme quantité » de recherches sur les préjugés de l’IA a éclipsé les études sur les « menaces plus importantes liées au terrorisme et à la guerre biologique ».

Défendre une « approche légère »

Les experts en IA et les législateurs proposent des défenses solides contre le programme de sécurité de l’IA de Biden.

Ces projets « permettent aux États-Unis de rester à la pointe » du développement de l'IA « tout en protégeant les Américains des dommages potentiels », a déclaré le représentant Ted Lieu, coprésident démocrate du groupe de travail sur l'IA de la Chambre.

Les exigences en matière de reporting sont essentielles pour alerter le gouvernement des nouvelles capacités potentiellement dangereuses des modèles d’IA de plus en plus puissants, déclare un responsable du gouvernement américain qui travaille sur les questions d’IA. Le responsable, qui a requis l'anonymat pour s'exprimer librement, souligne Admission à OpenAI à propos du « refus incohérent des demandes de synthèse d’agents neurotoxiques » de son dernier modèle.

Le responsable affirme que l'exigence de déclaration n'est pas trop lourde. Ils soutiennent que, contrairement aux réglementations sur l’IA en vigueur dans l’Union européenne et en Chine, l’EO de Biden reflète « une approche très large et légère qui continue de favoriser l’innovation ».

Nick Reese, qui a été premier directeur des technologies émergentes au ministère de la Sécurité intérieure de 2019 à 2023, rejette les affirmations conservatrices selon lesquelles l'exigence de déclaration mettrait en péril la propriété intellectuelle des entreprises. Et il dit que cela pourrait en fait profiter aux startups en les encourageant à développer des modèles d’IA « plus efficaces sur le plan informatique », moins gourmands en données et qui tombent en dessous du seuil de déclaration.

Le pouvoir de l'IA rend impérative la surveillance du gouvernement, déclare Ami Fields-Meyer, qui a contribué à la rédaction de l'EO de Biden en tant que responsable technique de la Maison Blanche.

« Nous parlons d'entreprises qui prétendent construire les systèmes les plus puissants de l'histoire du monde », explique Fields-Meyer. « La première obligation du gouvernement est de protéger les gens. « Faites-moi confiance, nous avons compris » n'est pas un argument particulièrement convaincant. »

Les experts saluent les conseils de sécurité du NIST comme une ressource vitale pour intégrer des protections dans les nouvelles technologies. Ils notent que des modèles d’IA défectueux peuvent produire de graves préjudices sociaux, notamment une discrimination en matière de location et de prêt et une perte injustifiée d’avantages gouvernementaux.

L'ordre de Trump en matière d'IA pour son premier mandat exigeait que les systèmes fédéraux d’IA respectent les droits civils, ce qui nécessitera des recherches sur les préjudices sociaux.

L'industrie de l'IA a largement accueilli Le programme de sécurité de Biden. « Ce que nous entendons, c'est qu'il est largement utile de préciser ces choses », a déclaré le responsable américain. Pour les nouvelles entreprises dotées de petites équipes, « cela élargit la capacité de leurs collaborateurs à répondre à ces préoccupations ».

Annuler l'EO de Biden enverrait un signal alarmant selon lequel «le gouvernement américain va adopter une approche non interventionniste en matière de sécurité de l'IA», déclare Michael Daniel, ancien conseiller présidentiel en matière de cybersécurité qui dirige désormais la Cyber ​​Threat Alliance, une organisation à but non lucratif de partage d'informations.