The US Government Wants You—Yes, You—to Hunt Down Generative AI Flaws
Au 2023 DefCon Hacker Conference à Las Vegas, des entreprises technologiques de l'IA éminentes s'établissaient à des groupes d'intégrité algorithmique et de transparence à des milliers de participants sur des plateformes d'IA génératrices et à trouver des faiblesses dans ces systèmes critiques. Cet exercice «en équipe rouge», qui avait également le soutien du gouvernement américain, a fait un pas pour ouvrir ces systèmes de plus en plus influents mais opaques à l'examen. Désormais, l'intelligence humaine à but non lucratif de l'IA et de l'évaluation algorithmique éthique va plus loin. Mercredi, Le groupe a annoncé un appel à la participation avec l'Institut national américain des normes et de la technologie, invitant tout résident américain à participer à la série de qualifications d'un effort national d'équipement rouge pour évaluer les logiciels de productivité de l'office de l'IA.
Le qualificatif aura lieu en ligne et est ouvert aux deux développeurs et Quiconque dans le grand public Dans le cadre des défis de l'IA de NIST, connu sous le nom d'évaluation des risques et des impacts de l'IA, ou de l'ARIA. Les participants qui traversent le tour de qualification participeront à un événement en équipe en personne à la fin octobre de la conférence sur l'apprentissage appliqué en matière d'apprentissage automatique en matière d'information (CAMLIS) en Virginie. L'objectif est d'élargir les capacités pour effectuer des tests rigoureux de la sécurité, de la résilience et de l'éthique des technologies génératrices d'IA.
«La personne moyenne utilisant l'un de ces modèles n'a pas vraiment la capacité de déterminer si le modèle est adapté ou non», explique Theo Skeadas, chef d'état-major de Humane Intelligence. «Nous voulons donc démocratiser la capacité de mener des évaluations et nous assurer que tous ceux qui utilisent ces modèles peuvent évaluer par eux-mêmes si le modèle répond ou non à ses besoins.»
Le dernier événement de Camlis divisera les participants en une équipe rouge essayant d'attaquer les systèmes d'IA et une équipe bleue travaillant sur la défense. Les participants utiliseront le Vous avez des profils 600-1faisant partie de Cadre de gestion des risques d'IA de NISTcomme une rubrique pour mesurer si l'équipe rouge est en mesure de produire des résultats qui violent le comportement attendu des systèmes.
«L'ARIA de NIST s'appuie sur les commentaires structurés des utilisateurs pour comprendre les applications du monde réel des modèles d'IA», explique le fondateur du Humane Intelligence, Rumman Chowdhury, qui est également un entrepreneur au Bureau des technologies émergentes de NIST et membre du ministère américain de la sécurité intérieure de l'IA de l'IA et Conseil de sécurité. «L'équipe ARIA est principalement des experts en test et évaluation sociotéchniques, et [is] Utiliser ce contexte comme moyen d'évoluer le domaine vers une évaluation scientifique rigoureuse de l'IA générative. »
Chowdhury et Skeadas disent que le partenariat NIST n'est qu'une série de collaborations d'équipe RED IA que les renseignements humains annonceront dans les semaines à venir avec les agences gouvernementales américaines, les gouvernements internationaux et les ONG. L'effort vise à rendre beaucoup plus courant pour les entreprises et les organisations qui développent ce qui est maintenant des algorithmes de boîte noire pour offrir la transparence et la responsabilité à travers des mécanismes tels que les «défis de primes du biais», où les individus peuvent être récompensés pour trouver des problèmes et des inégalités dans les modèles d'IA .
«La communauté devrait être plus large que les programmeurs», explique Skeadas. «Les décideurs, les journalistes, la société civile et les personnes non techniques devraient tous être impliqués dans le processus de test et d'évaluation de ces systèmes. Et nous devons nous assurer que des groupes moins représentés comme des individus qui parlent des langues minoritaires ou proviennent de cultures et de perspectives de non-majorité sont capables de participer à ce processus. »