The Call to Halt ‘Dangerous’ AI Research Ignores a Simple Truth

La semaine dernière, le Future of Life Institute a publié un lettre ouverte Proposer un moratoire de six mois sur la course «dangereuse» de l’IA. Il a depuis été signé par plus de 3 000 personnes, dont certains membres influents de la communauté de l’IA. Mais s’il est bon que les risques des systèmes d’IA se réunissent dans la communauté et dans la société, les problèmes décrits et les actions proposées dans la lettre sont irréalistes et inutiles.

L’appel à une pause sur les travaux d’IA est non seulement vague, mais aussi impossible. Bien que la formation de modèles de grandes langues par les entreprises à but lucratif reçoive la majeure partie de l’attention, elle est loin d’être le seul type de travail d’IA en cours. En fait, la recherche et la pratique de l’IA se produisent dans les entreprises, dans le monde universitaire et dans Compétitions de kaggle Partout dans le monde sur une multitude de sujets allant de l’efficacité à la sécurité. Cela signifie qu’il n’y a pas de bouton magique que quiconque peut appuyer qui s’arrêterait la recherche «dangereuse» d’IA tout en autorisant uniquement le type «sûr». Et les risques de l’IA qui sont nommés dans la lettre sont tous hypothétiques, basés sur un état d’esprit long-termiste qui a tendance à négliger de vrais problèmes comme discrimination algorithmique et la police prédictive, qui nuise aux individus maintenant, en faveur de risques existentiels potentiels à l’humanité.

Au lieu de nous concentrer sur les façons dont l’IA peut échouer à l’avenir, nous devons nous concentrer sur la définition claire de ce qui constitue un succès d’IA dans le présent. Cette voie est éminemment claire: au lieu d’arrêter la recherche, nous devons améliorer la transparence et la responsabilité tout en développant des directives autour du déploiement des systèmes d’IA. Les politiques, la recherche et les initiatives dirigées par les utilisateurs dans ce sens existent depuis des décennies dans différents secteurs, et nous avons déjà des propositions concrètes avec lesquelles travailler pour faire face aux risques actuels de l’IA.

Les autorités réglementaires du monde entier rédigent déjà des lois et des protocoles pour gérer l’utilisation et le développement de nouvelles technologies d’IA. Le Sénat américain Loi sur la responsabilité algorithmique et des initiatives similaires dans le UE et Canada sont parmi ceux qui aident à définir les données qui peuvent et ne peuvent pas être utilisées pour former des systèmes d’IA, résoudre les problèmes de droit d’auteur et de licences, et peser les considérations spéciales nécessaires à l’utilisation de l’IA dans des paramètres à haut risque. Une partie critique de ces règles est la transparence: exiger que les créateurs de systèmes d’IA fournissent plus d’informations sur les détails techniques comme la provenance des données de formation, le code utilisé pour former des modèles et comment les fonctionnalités telles que les filtres de sécurité sont implémentées. Les développeurs de modèles d’IA et de leurs utilisateurs en aval peuvent soutenir ces efforts en s’engageant avec leurs représentants et en aidant à façonner la législation autour des questions décrites ci-dessus. Après tout, ce sont nos données utilisées et nos moyens de subsistance affectés.

Mais rendre ce type d’informations disponible ne suffit pas en soi. Les entreprises qui développent des modèles d’IA doivent également permettre des audits externes de leurs systèmes et être tenus responsables de lutter contre les risques et les lacunes si elles sont identifiées. Par exemple, bon nombre des modèles d’IA les plus récents tels que Chatgpt, Bard et GPT-4 sont également les plus restrictifs, disponibles uniquement via une API ou un accès fermé qui est entièrement contrôlé par les sociétés qui les ont créés. Cela en fait essentiellement des boîtes noires dont la sortie peut passer d’un jour à l’autre ou produire des résultats différents pour différentes personnes. Bien qu’il y ait eu une équipe rouge approuvée par l’entreprise comme des outils comme GPT-4, il n’y a aucun moyen pour les chercheurs d’accéder aux systèmes sous-jacents, ce qui rend les analyses et les audits scientifiques impossibles. Cela va à l’encontre des approches pour l’audit des systèmes d’IA qui ont été proposées par des chercheurs comme Deborah Raji, qui a appelé à un aperçu à différentes étapes du processus de développement de modèles afin que les comportements et les préjudices risqués soient détectés avant que les modèles ne soient déployés dans la société.

Une autre étape cruciale vers la sécurité est de repenser collectivement la façon dont nous créons et utilisons l’IA. Les développeurs et les chercheurs d’IA peuvent commencer à établir des normes et des lignes directrices pour la pratique de l’IA en écoutant les nombreuses personnes qui plaident pour plus d’IA éthique depuis des années. Cela inclut des chercheurs comme Timnit Gebru, qui a proposé un mouvement «AI lent», et Ruha Benjamin, qui a souligné l’importance de créer des principes directeurs pour l’IA éthique pendant elle Présentation principale Lors d’une récente conférence sur l’IA. Des initiatives axées sur la communauté, comme le code d’éthique mis en œuvre Conférence des Neirips (Un effort que je préside) fait également partie de ce mouvement et vise à établir des directives autour de ce qui est acceptable en termes de recherche sur l’IA et comment considérer ses impacts plus larges sur la société.