These Nightmare AI Scenarios Have the UK Government Spooked
Biow arapes mortelles, attaques automatisées de cybersécurité, puissants modèles d'IA s'échappant du contrôle humain. Ce ne sont que quelques-unes des menaces potentielles posées par l'intelligence artificielle, selon un nouveau gouvernement britannique rapport. Il a été publié pour aider à établir l'ordre du jour d'un sommet international sur l'IA Safety pour être organisé par le Royaume-Uni la semaine prochaine. Le rapport a été compilé avec la contribution des principales sociétés d'IA telles que l'unité DeepMind de Google et plusieurs services gouvernementaux britanniques, y compris les agences de renseignement.
Joe White, l'envoyé de la technologie du Royaume-Uni aux États-Unis, a déclaré que le sommet offre l'occasion de rassembler les pays et de diriger les entreprises d'IA pour mieux comprendre les risques posés par la technologie. La gestion des inconvénients potentiels des algorithmes nécessitera une collaboration organique à l'ancienne, explique White, qui a aidé à planifier le sommet de la semaine prochaine. «Ce ne sont pas des défis à la machine à humains», explique White. «Ce sont des défis humains à humains.»
Le Premier ministre britannique Rishi Sunak fera un discours demain sur la façon dont, alors que l'IA ouvre des opportunités pour faire progresser l'humanité, il est important d'être honnête au sujet des nouveaux risques qu'il crée pour les générations futures.
Les Royaume-Uni Summit sur la sécurité de l'IA aura lieu les 1 et 2 novembre et se concentrera principalement sur la façon dont les gens peuvent abuser ou perdre le contrôle des formes avancées de l'IA. Certains experts et dirigeants de l'IA au Royaume-Uni ont critiqué l'objectif de l'événement, affirmant que le gouvernement devrait prioriser des préoccupations plus à court terme, telles que l'aide au Royaume-Uni à concurrencer les dirigeants mondiaux de l'IA comme les États-Unis et la Chine.
Certains experts de l'IA ont averti qu'une récente augmentation de la discussion sur les scénarios de l'IA lointaine, y compris la possibilité d'extinction humaine, pourrait distraire les régulateurs et le public de problèmes plus immédiats, tels que des algorithmes biaisés ou une technologie d'IA renforçant les entreprises déjà dominantes.
Le rapport britannique publié aujourd'hui examine les implications de la sécurité nationale des modèles de grands langues, la technologie de l'IA derrière Chatgpt. White dit que les agences de renseignement britanniques travaillent avec le Groupe de travail sur l'IA frontalièreun groupe d'experts du gouvernement britannique, pour explorer des scénarios comme ce qui pourrait se produire si de mauvais acteurs combinaient un modèle grand langage avec des documents gouvernementaux secrets. Une possibilité de condamnation discutée dans le rapport suggère un modèle grand langage qui accélère la découverte scientifique pourrait également stimuler les projets essayant de créer des armes biologiques.
En juillet, Dario Amodei, PDG d'Ai Startup Anthropic, a déclaré aux membres du Sénat américain qu'au cours des deux ou trois prochaines années, il pourrait être possible pour un modèle de langue de suggérer comment effectuer des attaques d'armes biologiques à grande échelle. Mais White dit que le rapport est un document de haut niveau qui n'est pas destiné à «servir de liste de courses de toutes les mauvaises choses qui peuvent être faites».
Le rapport britannique explique également comment l'IA pourrait échapper au contrôle humain. Si les gens s'habituent à remettre des décisions importantes aux algorithmes «il devient de plus en plus difficile pour les humains de reprendre le contrôle», indique le rapport. Mais «la probabilité de ces risques reste controversée, de nombreux experts pensant que la probabilité est très faible et certains se concentrant sur le risque de distraire les dommages actuels.»
En plus des agences gouvernementales, le rapport publié aujourd'hui a été examiné par un panel comprenant des experts en politique et en éthique de DeepMind AI Lab de Google, qui a commencé comme une startup de l'IA de Londres et a été acquise par la société de recherche en 2014, et Hugging Face, une startup développant un logiciel d'IA open source.
Yoshua Bengio, l'un des trois «parrains de l'IA» qui a remporté le prix le plus élevé en informatique, le prix Turing, pour les techniques d'apprentissage automatique central de la flèche actuelle de l'IA a également été consultée. Bengio a récemment déclaré que son optimisme sur la technologie qu'il avait aidé à Foster avait aigri et qu'une nouvelle organisation de «défense de l'humanité» est nécessaire pour aider à garder l'IA sous contrôle.