We Need a New Right to Repair for Artificial Intelligence

Il y a une croissance tendance des personnes et des organisations à rejeter l’imposition non sollicitée de l’IA dans leur vie. En décembre 2023, le New York Times a poursuivi OpenAI et Microsoft pour violation du droit d'auteur. En mars 2024, trois auteurs ont intenté un recours collectif en Californie contre Nvidia pour avoir prétendument formé sa plateforme d'IA NeMo sur leur œuvre protégée par le droit d'auteur. Deux mois plus tard, l'actrice de premier plan Scarlett Johansson a envoyé une lettre juridique à OpenAI lorsqu'elle a réalisé que sa nouvelle voix ChatGPT était « étrangement similaire » à la sienne.

La technologie n'est pas le problème ici. La dynamique du pouvoir l’est. Les gens comprennent que cette technologie est construite sur leurs données, souvent sans notre permission. Il n’est pas étonnant que la confiance du public dans l’IA soit en déclin. Une étude récente de Recherche sur le banc montre que plus de la moitié des Américains sont plus préoccupés qu’enthousiasmés par l’IA, un sentiment repris par une majorité de personnes originaires de pays d’Amérique centrale et du Sud, d’Afrique et du Moyen-Orient dans un contexte Sondage sur les risques mondiaux.

En 2025, nous verrons les gens exiger davantage de contrôle sur la manière dont l’IA est utilisée. Comment cela sera-t-il réalisé ? Un exemple est le red teaming, une pratique empruntée à l’armée et utilisée en cybersécurité. Dans un exercice d’équipe rouge, des experts externes sont invités à « infiltrer » ou à briser un système. Cela sert de test pour déterminer où vos défenses peuvent mal fonctionner, afin que vous puissiez les réparer.

L'équipe rouge est utilisée par les grandes sociétés d'IA pour détecter les problèmes dans leurs modèles, mais n'est pas encore une pratique largement répandue à usage public. Cela changera en 2025.

Le cabinet d’avocats DLA Piper, par exemple, utilise désormais une équipe rouge avec des avocats pour tester directement si les systèmes d’IA sont conformes aux cadres juridiques. Mon organisation à but non lucratif, Humane Intelligence, organise des exercices d'équipe rouge avec des experts non techniques, des gouvernements et des organisations de la société civile pour tester l'IA en matière de discrimination et de préjugés. En 2023, nous avons mené un exercice d’équipe rouge regroupant 2 200 personnes avec le soutien de la Maison Blanche. En 2025, nos événements d’équipe rouge s’appuieront sur l’expérience vécue de personnes ordinaires pour évaluer les modèles d’IA pour l’islamophobie et leur capacité à permettre le harcèlement en ligne contre les femmes.

La plupart du temps, lorsque j'anime un de ces exercices, la question la plus courante que l'on me pose est de savoir comment nous pouvons passer de l'identification des problèmes à la résolution des problèmes nous-mêmes. En d’autres termes, les gens veulent avoir le droit de réparer.

Un droit de réparation d'une IA pourrait ressembler à ceci : un utilisateur pourrait avoir la possibilité d'exécuter des diagnostics sur une IA, de signaler toute anomalie et de voir quand elles sont corrigées par l'entreprise. Des groupes tiers, comme des pirates informatiques éthiques, pourraient créer des correctifs ou des solutions aux problèmes auxquels tout le monde peut accéder. Vous pouvez également engager une partie indépendante accréditée pour évaluer un système d’IA et le personnaliser pour vous.

Bien qu’il s’agisse aujourd’hui d’une idée abstraite, nous préparons le terrain pour qu’un droit à la réparation devienne une réalité dans le futur. Renverser la dangereuse dynamique de pouvoir actuelle demandera du travail : nous sommes rapidement poussés à normaliser un monde dans lequel les sociétés d’IA se contentent d’intégrer de nouveaux modèles d’IA non testés dans des systèmes du monde réel, avec des personnes ordinaires comme dommages collatéraux. Un droit à la réparation donne à chacun la possibilité de contrôler la manière dont l’IA est utilisée dans sa vie. 2024 a été l’année où le monde a pris conscience de l’omniprésence et de l’impact de l’IA. 2025 est l’année où nous revendiquons nos droits.