AI Giants Pledge to Allow External Probes of Their Algorithms, Under a New White House Pact

«Guidé par les principes durables de la sécurité, de la sécurité et de la confiance, les engagements volontaires abordent les risques présentés par les modèles AI avancés et promouvaient l'adoption de pratiques spécifiques, telles que les tests en équipe rouge et la publication de rapports de transparence – qui propulsera l'ensemble de l'écosystème à l'avant», a déclaré le président de Microsoft, Brad Smith, dans un article de blog.

Le potentiel de la société risque que l'accord engage les entreprises à surveiller n'inclut pas l'empreinte carbone de la formation des modèles d'IA, une préoccupation qui est désormais couramment citée dans la recherche sur l'impact des systèmes d'IA. La création d'un système comme Chatgpt peut nécessiter des milliers de processeurs informatiques de haute puissance, en cours d'exécution pendant de longues périodes.

Andrew Burt, associé directeur du cabinet d'avocats BNH, spécialisé dans l'IA, affirme que les risques potentiels des systèmes d'IA génératifs deviennent clairs pour toutes les personnes impliquées dans la technologie. La Federal Trade Commission a commencé une enquête sur les pratiques commerciales d'OpenAI la semaine dernière, alléguant que l'entreprise avait participé à «des pratiques de confidentialité ou de sécurité des données déloyales ou trompeuses».

La stipulation de l'accord de la Maison Blanche selon laquelle les entreprises devraient commander des évaluations externes de leur technologie ajoutent à la preuve que les audits extérieurs deviennent «le moyen central des gouvernements exercent la surveillance des systèmes d'IA», explique Burt.

La Maison Blanche a également promu l'utilisation des audits dans la Déclaration des droits de l'IA volontaire publiée l'année dernière, et elle soutient un concours de piratage centré sur des modèles d'IA génératifs lors de la conférence de sécurité DefCon le mois prochain. Les audits sont également une exigence de la loi sur l'IA de l'UE, qui est actuellement en cours de finalisation.

Jacob Appel, stratège en chef chez Orcaa, une entreprise qui vérifie les algorithmes pour les entreprises et le gouvernement, affirme que l'accord est le bienvenu, mais que les évaluations générales de modèles de grandes langues comme ceux qui sont derrière le chatppt sont insuffisants. Des cas d'utilisation spécifiques et à haut risque d'IA, comme un chatbot ajusté pour générer des conseils médicaux ou juridiques, devraient obtenir leurs propres évaluations sur mesure, dit-il. Et les systèmes de petites entreprises doivent également être examinés.

Le président Joe Biden se réunira aujourd'hui à la Maison Blanche avec des dirigeants des sociétés qui ont rejoint le nouvel accord de l'IA, notamment le PDG d'Anthropic Dario Amodei, le président de Microsoft Brad Smith, et le PDG de l'IA de l'inflexion Mustafa Suleyman. Son administration développe également un décret pour régir l'utilisation de l'IA par le biais d'actions des agences fédérales, mais la Maison Blanche n'a donné aucun calendrier spécifique pour sa libération.

Mise à jour du 7-21-2023, 14 h 20 HAD: Cet article a été mis à jour avec les commentaires de Jacob Appel chez Orcaa.