Why the Story of an AI Drone Trying to Kill Its Operator Seems So True
Avez-vous entendu sur le drone Air Force Ai qui est allé voyager et a attaqué ses opérateurs à l'intérieur d'une simulation?
Le conte alarmant a été raconté par le colonel Tucker Hamilton, chef du test et des opérations de l'IA à l'US Air Force, lors d'un discours à Un événement aérospatial et de défense à Londres à la fin du mois dernier. Il impliquait apparemment de prendre le type d'algorithme d'apprentissage utilisé pour former des ordinateurs à jouer à des jeux vidéo et à des jeux de société comme les échecs et à le faire former un drone pour chasser et détruire des missiles de surface à air.
“Parfois, l'opérateur humain lui dirait de ne pas tuer cette menace, mais il a obtenu ses points en tuant cette menace”, a été largement rapporté Hamilton comme disant au public à Londres. «Alors qu'est-ce que ça a fait? […] Il a tué l'opérateur parce que cette personne l'empêchait d'atteindre son objectif. »
Saint T-800! Il semble que le genre d'experts de l'IA a commencé à nous avertir que les algorithmes de plus en plus intelligents et non-conformistes pourraient faire. L'histoire est rapidement devenue virale, bien sûr, avec plusieurs sites d'information ramasseret Twitter a bientôt été en effervescence avec Prises chaudes concernées.
Il n'y a qu'une seule prise – l'expérience ne s'est jamais produite.
«Le Département de l'Air Force n'a effectué aucune simulation telle de DRA et reste attaché à l'utilisation éthique et responsable de la technologie de l'IA», la porte-parole de l'Air Force, Ann Stefanek, nous rassure dans un communiqué. “C'était une expérience de pensée hypothétique, pas une simulation.”
Hamilton lui-même s'est également précipité pour remettre les pendules à l'heure, disant qu'il «a mal parlé» lors de son discours.
Pour être juste, les militaires mènent parfois des exercices de «jeu de guerre» de table avec des scénarios et des technologies hypothétiques qui n'existent pas encore.
L '«expérience de pensée» de Hamilton peut également avoir été informée par de véritables recherches sur l'IA montrant des problèmes similaires à celui qu'il décrit.
Openai, l'entreprise derrière Chatgpt – le chatbot étonnamment intelligent et frustrant au centre du boom de l'IA d'aujourd'hui – une expérience en 2016 qui a montré comment les algorithmes de l'IA qui ont un objectif particulier peuvent parfois se comporter mal. Les chercheurs de l'entreprise ont découvert qu'un agent d'IA s'était entraîné pour accumuler son score dans un jeu vidéo qui implique de conduire un bateau a commencé à écraser le bateau en objets car il s'est avéré être un moyen d'obtenir plus de points.