Senators Want ChatGPT-Level AI to Require a Government License

«C'est vraiment rafraîchissant de les voir prendre cela et de ne pas attendre une série de forums Insight ou une commission qui va passer deux ans et parler à un tas d'experts pour créer essentiellement cette même liste», explique Lenhart.

Mais elle ne sait pas comment tout nouvel organisme de surveillance de l'IA pourrait accueillir le large éventail de connaissances techniques et juridiques nécessaires pour superviser la technologie utilisée dans de nombreux domaines, des voitures autonomes aux soins de santé en passant par le logement. «C'est là que je suis un peu coincé sur l'idée du régime de licence», explique Lenhart.

L'idée d'utiliser des licences pour restreindre qui peut développer de puissants systèmes d'IA a gagné du terrain dans l'industrie et le Congrès. Le PDG d'OpenAI, Sam Altman, a suggéré une licence pour les développeurs de l'IA lors du témoignage avant le Sénat en mai – une solution réglementaire qui pourrait sans doute aider son entreprise à maintenir sa position de premier plan. Un projet de loi proposé le mois dernier Par les sénateurs, Lindsay Graham et Elizabeth Warren exigeraient également que les entreprises technologiques obtiennent une licence d'IA gouvernementale, mais couvre uniquement les plateformes numériques au-dessus d'une certaine taille.

Lenhart n'est pas la seule IA ou expert en politique sceptique quant à la licence gouvernementale pour le développement de l'IA. En mai, l'idée a suscité des critiques de la part des deux groupes de campagne politique des Américains de prospérité, ce qui le craint Innovation étouffanteet de la Fondation de frontière électronique à but non lucratif des droits numériques, qui, qui avertisse la capture de l'industrie par des entreprises avec de l'argent ou des connexions influentes. Peut-être qu'en réponse, le cadre dévoilé hier recommande de solides règles de conflit d'intérêts pour le personnel de l'organisme de surveillance de l'IA.

Le nouveau cadre de Blumenthal et Hawley pour la future réglementation de l'IA laisse des questions sans réponse. Il n'est pas encore clair si la surveillance de l'IA proviendrait d'une agence fédérale nouvellement créée ou d'un groupe au sein d'une agence fédérale existante. Les sénateurs n'ont pas non plus spécifié quels critères seraient utilisés pour déterminer si un certain cas d'utilisation est défini comme un risque élevé et nécessite une licence pour se développer.

Michael Khoo, directeur du programme de désinformation sur le climat chez les amis de la Terre à but non lucratif environnementaux, affirme que la nouvelle proposition semble être une bonne première étape, mais que plus de détails sont nécessaires pour évaluer correctement ses idées. Son organisation fait partie d'une coalition d'organisations de responsabilité environnementale et technologique qui via une lettre à Schumer, et un panneau d'affichage mobile en raison des cercles autour du Congrès la semaine prochaine, appellent les législateurs à empêcher les projets d'IA à forte intensité d'énergie d'aggraver le changement climatique.

Khoo est d'accord avec l'appel du cadre législatif à la documentation et la divulgation publique des impacts négatifs, mais dit que les législateurs ne devraient pas laisser l'industrie définir ce qui est jugé nocif. Il veut également que les membres du Congrès exigent que les entreprises divulguent la quantité d'énergie nécessaire pour former et déployer des systèmes d'IA et considérer le risque d'accélérer la propagation de la désinformation lors de la peinture de l'impact des modèles d'IA.

Le cadre législatif montre que le Congrès envisage une approche plus stricte de la réglementation de l'IA que ce qui a pris jusqu'à présent par le gouvernement fédéral, qui a lancé une gestion du risque volontaire cadre et la Déclaration des droits de l'IA non contraignante. La Maison Blanche a conclu un accord volontaire en juillet avec huit grandes sociétés d'IA, notamment Google, Microsoft et OpenAI, mais a également promis que des règles plus fermes arrivaient. Lors d'un briefing sur le compact de la société d'IA, le conseiller spécial de la Maison Blanche pour l'IA Ben Buchanan a déclaré que le maintien de la société à l'abri des préjudices de l'IA nécessitera une législation.