Tech Leaders Once Cried for AI Regulation. Now the Message Is ‘Slow Down’

L'autre soir, j'ai assisté à un dîner de presse organisé par une entreprise d'entreprise appelée Box. D'autres invités comprenaient les dirigeants de deux sociétés axées sur les données, Datadog et MongoDB. Habituellement, les dirigeants de ces soirées sont sur leur meilleur comportement, surtout lorsque la discussion est dans le dossier, comme celle-ci. J'ai donc été surpris par un échange avec le PDG de Box, Aaron Levie, qui nous a dit qu'il avait été difficile au dessert parce qu'il volait ce soir-là à Washington, DC. Il se dirigeait vers un intérêt spécial appelé Technet Day, où la Silicon Valley arrive à jour avec des dizaines de créatures du Congrès pour façonner ce que le public (non invité) devra vivre. Et que voulait-il de cette législation? “Le moins possible,” répondit Levie. «Je serai à lui seul responsable de l'arrêt du gouvernement.»

Il plaisantait à ce sujet. Sorte de. Il a poursuivi en disant que si la régulation des abus clairs de l'IA comme Deepfakes a du sens, il est trop tôt pour considérer les contraintes comme forcer les entreprises à soumettre des modèles de langue importants aux flics d'IA approuvés par le gouvernement, ou à scanner des chatbots pour des choses comme le biais ou la capacité de pirater une infrastructure réelle. Il a souligné l'Europe, qui a déjà adopté des contraintes sur l'IA comme exemple pas faire. “Ce que fait l'Europe est assez risqué”, a-t-il déclaré. “Il y a ce point de vue dans l'UE que si vous régulez d'abord, vous créez en quelque sorte une atmosphère d'innovation”, a déclaré Levie. «Cela s'est avéré empiriquement.»

Les remarques de Levie volent face à ce qui est devenu une position standard parmi les élites de l'IA de la Silicon Valley comme Sam Altman. “Oui, réglementez-nous!«Ils disent. Mais Levie note que lorsqu'il s'agit exactement de ce que les lois devraient dire, le consensus s'effondre. “Nous, en tant qu'industrie technologique, ne savons pas ce que nous demandons réellement”, a déclaré Levie, “je ne suis pas allé à un dîner avec plus de cinq personnes d'IA où il y a un seul accord sur la façon dont vous régleriez l'IA.” Non pas que cela compte – Levie pense que les rêves d'un projet de loi sur l'IA sont condamnés. «La bonne nouvelle est qu'il n'y a aucun moyen que les États-Unis soient jamais coordonnés de ce genre. Il n'y aura tout simplement pas un acte d'IA aux États-Unis. »

Levie est connue pour son laborieuse irrévérencieuse. Mais dans ce cas, il est tout simplement plus candide que beaucoup de ses collègues, dont la position réglemente-américaine est une forme de corde sophistiquée. L'événement public unique de TechNet Day, du moins pour autant que je puisse discerner, était un panneau en direct Discussion sur l'innovation de l'IA qui comprenait le président des affaires mondiales de Google, Kent Walker et Michael Kratsios, le plus récent directeur de la technologie américaine et maintenant un cadre à l'échelle de l'IA. Le sentiment parmi ces panélistes était que le gouvernement devrait se concentrer sur la protection des dirigeants américains sur le terrain. Tout en concédant que la technologie a ses risques, ils ont fait valoir que les lois existantes couvrent à peu près la méchanceté potentielle.

Le marcheur de Google semblait particulièrement alarmé que certains États développent par eux-mêmes une législation sur l'IA. “En Californie seulement, il y a 53 factures d'IA différentes en attente à l'Assemblée législative aujourd'hui”, a-t-il déclaré, et il ne se vantait pas. Walker sait bien sûr que ce congrès peut difficilement maintenir le gouvernement lui-même à flot, et la perspective des deux maisons jonglant avec succès avec cette patate chaude au cours d'une année électorale est aussi éloignée que Google en réhabilitant les huit auteurs du papier transformateur.

Le Congrès américain a une législation en instance. Et les factures continuent de venir – certains peut-être moins significatifs que les autres. Cette semaine, le représentant Adam Schiff, un démocrate de Californie, a présenté un projet de loi appelé La Generative AI Copyright Disclosure Act de 2024. Il oblige que les modèles de grande langue doivent être présentés au bureau du droit d'auteur «un résumé suffisamment détaillé de toutes les œuvres protégées par le droit d'auteur utilisé… dans l'ensemble de données de formation». On ne sait pas ce que signifie «suffisamment détaillé». Serait-il OK de dire “Nous avons simplement gratté le Web ouvert?” Le personnel de Schiff m'a expliqué qu'ils adoptaient une mesure dans le projet de loi sur l'IA de l'UE.