US Lawmakers Tell DOJ to Quit Blindly Funding ‘Predictive’ Police Tools

Le ministère de la Justice des États-Unis n'a pas réussi à convaincre un groupe de législateurs américains que les États-Unis et les services de police locaux ne sont pas accordés à des subventions fédérales pour acheter des outils de police basés sur l'IA connus pour être inexacts, sinon enclins à exacerber les biais observés depuis longtemps dans les forces de police américaines.

Sept membres du Congrès ont écrit Une lettre au DOJobtenu par Wired pour la première fois, que les informations qu'ils ont tirées de l'agence n'avaient fait qu'inflammer leurs préoccupations concernant le programme de subventions de police du DOJ. Jusqu'à présent, rien dans ses réponses, a déclaré les législateurs, indique que le gouvernement a pris la peine d'enquêter si les départements ont accordé des subventions ont acheté un logiciel de police discriminatoire.

«Nous vous exhortons à arrêter toutes les subventions du ministère de la Justice pour les systèmes de police prédictifs jusqu'à ce que le DOJ puisse garantir que les bénéficiaires de subventions n'utiliseront pas de tels systèmes de manière à avoir un impact discriminatoire», indique la lettre. Le ministère de la Justice précédemment reconnu qu'il n'avait pas suivi la question de savoir si les services de police utilisaient le financement, décerné dans le cadre du programme d'aide à la justice commémoratif d'Edward Byrne, pour acheter des outils de police prédictifs.

Dirigés par le sénateur Ron Wyden, démocrate de l'Oregon, les législateurs disent que le DOJ est tenu par la loi de «réviser périodiquement» si les bénéficiaires de subventions se conforment au titre VI de la loi sur les droits civils du pays. Le DOJ est manifestement interdit, expliquent-ils, des programmes de financement montrés pour discriminer sur la base de la race, de l'ethnicité ou de l'origine nationale, que ce résultat soit intentionnel ou non.

Les enquêtes indépendantes dans la presse ont révélé que les outils de police «prédictifs» populaires formés sur les données sur la criminalité historique reproduisent souvent les biais de longue date, offrant aux forces de l'ordre, au mieux, un placage de légitimité scientifique tout en perpétuant la surexploitation des quartiers à prédominance noire et latin. Un titre d'octobre du balisage indique sans aucun doute: «Logiciel de police prédictif terrible pour prédire les crimes. ” L'histoire raconte comment les chercheurs de la publication ont récemment examiné 23 631 prédictions de la criminalité policière – et les ont trouvés précis environ 1% du temps.

«Les systèmes de police prédictifs reposent sur des données historiques déformées par des rapports de criminalité falsifiés et des arrestations disproportionnées de personnes de couleur», ont écrit Wyden et les autres législateurs, prédisant –comme de nombreux chercheurs ont– que la technologie ne sert qu'à créer des boucles de rétroaction «dangereuses». La déclaration note que «des prédictions biaisées sont utilisées pour justifier des arrêts et des arrestations disproportionnés dans les quartiers minoritaires», biaisant davantage les statistiques sur l'endroit où les crimes se produisent.

Les sénateurs Jeffrey Merkley, Ed Markey, Alex Padilla, Peter Welch et John Fetterman ont également cosigné la lettre, tout comme le représentant Yvette Clarke.

Les législateurs ont demandé qu'un prochain rapport présidentiel sur la police et l'intelligence artificielle enquête sur l'utilisation des outils de police prédictifs aux États-Unis. «Le rapport devrait évaluer l'exactitude et la précision des modèles de police prédictifs dans les classes protégées, leur interprétabilité et leur validité», pour inclure, ils ont ajouté: «Toutes les limites d'évaluation de leurs risques posées par un manque de transparence de la part des entreprises qui les développent.»

Si le DOJ souhaitait continuer à financer la technologie après cette évaluation, les législateurs disent qu'il devrait au moins établir des «normes de preuves» pour déterminer quels modèles prédictifs sont discriminatoires – puis rejeter le financement pour tous ceux qui ne leur sont pas à la hauteur.