Spooked by ChatGPT, US Lawmakers Want to Create an AI Regulator
Mais Blumenthal a également exprimé sa préoccupation qu'une nouvelle agence d'IA fédérale pourrait avoir du mal à égaler la vitesse et la puissance de l'industrie technologique. “Sans un financement approprié, vous metterez des cercles autour de ces régulateurs”, a-t-il déclaré à Altman et à un collègue de l'industrie Christina Montgomery, responsable de la vie privée et de la fiducie d'IBM. Altman et Montgomery ont été rejoints par le professeur de psychologie devenu le commentateur de l'IA Gary Marcus, qui a plaidé pour la création d'un organisme international pour surveiller les progrès de l'IA et encourager le développement sûr de la technologie.
Blumenthal a ouvert l'audience avec un clone vocal de l'IA de lui-même récitant du texte écrit par Chatgpt pour souligner comment l'IA peut produire des résultats convaincants.
Les sénateurs n'ont pas suggéré de nom pour l'agence potentielle ni de cartographier ses fonctions possibles en détail. Ils ont également discuté des réponses réglementaires moins radicales aux progrès récents dans l'IA, tels que l'exigence de la documentation publique des limites des systèmes d'IA ou des ensembles de données utilisés pour les créer, semblable à une étiquette de nutrition de l'IA – des idées qui avaient été introduites il y a des années par des chercheurs comme l'ancien terrassement éthique Google éthique de Timnit Gebru, qui a été énuméré par la société après un désir d'un article de recherche préalable à un danger sur un modèle de disposition sur un document préalable préalable.
Un autre changement exhorté par les législateurs et les témoins de l'industrie exigeait que la divulgation informe les gens lorsqu'ils conversent avec un modèle de langue et non un humain, ou lorsque la technologie de l'IA prend des décisions importantes avec des conséquences qui changent la vie. Un exemple pourrait être une exigence de divulgation pour révéler quand une correspondance de reconnaissance faciale est la base d'une arrestation ou d'une accusation criminelle.
L'audience du Sénat suit l'intérêt croissant des gouvernements américains et européens, et même certains initiés technologiques, en mettant de nouveaux garde-corps sur l'IA pour l'empêcher de nuire aux gens. En mars, une lettre de groupe signée par des noms majeurs de la technologie et de l'IA a appelé à une pause de six mois sur le développement de l'IA, et ce mois-ci, la Maison Blanche a appelé des dirigeants d'Openai, de Microsoft et d'autres sociétés et a annoncé qu'elle soutenait un concours de piratage public pour sonder les systèmes génératifs d'IA. L'Union européenne finalise également une loi radicale appelée la loi sur l'IA.
Montgomery d'IBM a exhorté le Congrès hier à s'inspirer de la loi sur l'IA, qui catégorise les systèmes d'IA par les risques qu'ils posent aux personnes ou à la société et établit des règles pour – ou même des interdictions – en conséquence. Elle a également approuvé l'idée d'encourager l'autorégulation, mettant en évidence sa position sur le tableau d'éthique de l'IBM, bien qu'à Google et Axone, ces structures soient devenues embourbées en controverse.
Le Center for Data Innovation, un groupe de réflexion technologique, a déclaré dans une lettre publiée après l'audience d'hier que les États-Unis n'ont pas besoin d'un nouveau régulateur pour l'IA. “Tout comme il serait mal avisé de voir une agence gouvernementale réglementer toute prise de décision humaine, il serait tout aussi mal avisé de voir une agence réglementer toute l'IA”, a indiqué la lettre.
«Je ne pense pas que ce soit pragmatique, et ce n'est pas à quoi ils devraient penser en ce moment», explique Hodan Omaar, analyste principal au centre.
OMAAR dit que l'idée de démarrer une toute nouvelle agence pour l'IA est improbable étant donné que le Congrès n'a pas encore suivi d'autres réformes technologiques nécessaires, comme la nécessité de protections de la vie privée des données. Elle pense qu'il est préférable de mettre à jour les lois existantes et de permettre aux agences fédérales d'ajouter une surveillance de l'IA à leur travail réglementaire existant.