The White House Already Knows How to Make AI Safer
Deuxièmement, il pourrait instruire toute agence fédérale à acheter un système d'IA qui a le potentiel de «impact significatif [our] Droits, opportunités ou accès aux ressources ou services critiques«Pour exiger que le système respecte ces pratiques et que les fournisseurs fournissent des preuves de cette conformité. Cela reconnaît le pouvoir du gouvernement fédéral en tant que client pour façonner les pratiques commerciales. Après tout, il est le plus grand employeur du pays et pourrait utiliser son pouvoir d'achat pour dicter les meilleures pratiques pour les algorithmes qui sont utilisés, par exemple, à l'écran et à sélectionner des candidats à des emplois.
Troisièmement, le décret pourrait exiger que quiconque prenne des dollars fédéraux (y compris les entités étatiques et locales) s'assure que les systèmes d'IA qu'ils utilisent respectent ces pratiques. Cela reconnaît le rôle important des investissements fédéraux dans les États et les localités. Par exemple, l'IA a été impliquée dans de nombreuses composantes du système de justice pénale, notamment la police prédictive, la surveillance, l'incarcération préalable au procès, la condamnation et la libération conditionnelle. Bien que la plupart des pratiques d'application de la loi soient locales, le ministère de la Justice offre des subventions fédérales aux forces de l'ordre locales et locales et pourrait attacher des conditions à ces fonds stipulant comment utiliser la technologie.
Enfin, ce décret pourrait diriger les agences avec le pouvoir réglementaire de mettre à jour et d'élargir leur réglementation aux processus liés à leur juridiction qui incluent l'IA. Quelques efforts initiaux pour réguler les entités en utilisant l'IA avec dispositifs médicaux, Embauche d'algorithmeset notation du crédit sont déjà en cours et ces initiatives pourraient être élargies. Surveillance des travailleurs et Systèmes d'évaluation de la propriété ne sont que deux exemples de domaines qui bénéficieraient de ce type d'action réglementaire.
Bien sûr, le régime de tests et de surveillance des systèmes d'IA que j'ai décrits ici est susceptible de provoquer une gamme de préoccupations. Certains peuvent soutenir, par exemple, que d'autres pays nous dépasseront si nous ralentissons pour mettre en œuvre ces garde-corps. Mais d'autres pays sont occupés à adopter leurs propres lois qui imposent des restrictions étendues aux systèmes d'IA, et toutes les entreprises américaines cherchant à opérer dans ces pays devront respecter leurs règles. L'UE est sur le point de adopter une vaste loi sur l'IA qui comprend de nombreuses dispositions que j'ai décrites ci-dessus, et même la Chine est Placement des limites des systèmes d'IA déployés commercialement qui vont bien au-delà de ce que nous sommes actuellement disposés à considérer.
D'autres peuvent exprimer leur inquiétude que cet ensemble expansif d'exigences pourrait être difficile à respecter pour une petite entreprise. Cela pourrait être traité en liant les exigences au degré d'impact: un logiciel qui peut affecter les moyens de subsistance de millions doit être soigneusement vérifié, quelle que soit la taille ou la taille du développeur. Un système d'IA que les individus utilisent à des fins récréatifs ne devraient pas être soumis aux mêmes restrictions et restrictions.
Il est également susceptible de se soucier de savoir si ces exigences sont pratiques. Là encore, il est important de ne pas sous-estimer le pouvoir du gouvernement fédéral en tant que fabricant de marchés. Un décret exécutif qui appelle à tester et à valider les cadres fournira des incitations aux entreprises qui souhaitent traduire les meilleures pratiques en régimes de test commerciaux viables. Le secteur de l'IA responsable est déjà rempli d'entreprises qui fournissent des services d'audit et d'évaluation algorithmiques, consortiums de l'industrie Ce problème de directives détaillées Les fournisseurs devraient se conformer aux grandes sociétés de conseil qui offrent des conseils à leurs clients. Et des entités indépendantes à but non lucratif comme Données et société (Avertissement: je suis assis sur leur planche) Je me suis installé Labs entiers Pour développer des outils qui évaluent comment les systèmes d'IA affecteront différentes populations.
Nous avons fait la recherche, nous avons construit les systèmes et nous avons identifié les dommages. Il existe des moyens établis de s'assurer que la technologie que nous construisons et déployons peut nous bénéficier à tous tout en réduisant les dommages pour ceux qui sont déjà secoués par une société profondément inégale. Le temps pour étudier est terminé – maintenant la Maison Blanche doit émettre un décret et agir.
Opinion câblée Publie des articles par des contributeurs externes représentant un large éventail de points de vue. Lire plus d'opinions ici. Soumettre un éditorial à idé[email protected].