Joe Biden Wants Hackers’ Help to Keep AI Chatbots in Check

L'exercice de piratage soutenu par la Maison Blanche conçue pour exposer les faiblesses des systèmes d'IA génératifs aura lieu cet été à la conférence de sécurité DefCon. Des milliers de participants, y compris des pirates et des experts en politique, seront invités à explorer comment les modèles génératifs des entreprises tels que Google, NVIDIA et la stabilité de l'IA s'alignent sur la Déclaration des droits de l'IA de l'administration Biden annoncée en 2022 et un Institut national des normes et de la technologie de l'administration Biden Cadre de gestion des risques Sorti plus tôt cette année.

Les points seront attribués dans le cadre d'un format de capture-plateau pour encourager les participants à tester un large éventail de bogues ou de comportements peu recommandables des systèmes d'IA. L'événement sera mené en consultation avec Microsoft, à but non lucratif Seedai, le Base de données de vulnérabilité de l'IAet Humane Intelligence, un organisme à but non lucratif créé par les données et les spécialistes du sociologue Rumman Chowdhury. Auparavant, elle avait dirigé un groupe sur Twitter travaillant sur l'éthique et l'apprentissage automatique, et a organisé une prime de biais qui a découvert les préjugés dans le recadrage automatique du réseau social.

L'IA Now Institute, un organisme à but non lucratif qui a conseillé aux législateurs et aux agences fédérales sur la réglementation de l'IA, a fait valoir dans un rapport Sorti le mois dernier que, parce que les systèmes Chatgpt peuvent être affinés pour une gamme d'utilisations, ils méritent plus de contrôle réglementaire que les formes précédentes de l'IA.

Sarah Myers West, directrice générale de l'IA Now Institute et co-auteur de ce rapport, affirme que l'intérêt renouvelé pour l'IA par les régulateurs fédéraux est le bienvenu. Mais elle dit que cela reste à voir à quel point leurs actions seront significatives. «Nous ne pouvons tout simplement pas nous permettre de confondre les bons bruits pour une réglementation exécutoire en ce moment», explique West.

Elle se méfie également de la façon dont les entreprises technologiques à la recherche de bénéfices avec l'IA semblent être étroitement impliquées dans la nouvelle attention de la Maison Blanche à la technologie. «Nous serions disposés à adopter une approche qui leur laisse diriger la conversation sur ce qui constitue une innovation fiable et responsable», dit-elle. «C'est pour les régulateurs et le public plus large de définir à quoi ressemble le développement responsable de la technologie.»

Hier, lors d'un briefing, un responsable de la Maison Blanche a déclaré que les entreprises développant une IA devraient être partenaires pour s'assurer que la technologie est utilisée de manière responsable, ajoutant que les entreprises ont également la responsabilité de s'assurer que les produits sont en sécurité avant d'être déployés en public.

Au-delà des entreprises qui développent une IA à but lucratif, les agences fédérales ont du travail à faire sur leur propre utilisation de l'IA. UN Étude de décembre 2022 de l'Université de Stanford Trouvé Que pratiquement aucune agence fédérale n'a répondu à un décret exécutif de l'ère Trump pour fournir des plans en IA au public et qu'environ la moitié a partagé un inventaire de la façon dont ils utilisent l'IA. Le Bureau de la gestion et du budget de la Maison Blanche publiera de nouvelles directives pour l'utilisation des agences fédérales de l'IA dans les prochains mois.