Etching AI Controls Into Silicon Could Keep Doomsday at Bay

Même l'algorithme d'intelligence artificielle le plus intelligent et le plus rusé devra probablement obéir aux lois du silicium. Ses capacités seront limitées par le matériel sur lequel il fonctionne.

Certains chercheurs explorent des moyens d'exploiter cette connexion afin de limiter le potentiel des systèmes d'IA pour causer des dommages. L'idée est d'encoder des règles régissant la formation et le déploiement d'algorithmes avancés directement dans les puces informatiques nécessaires pour les exécuter.

En théorie – la sphère où réside actuellement une grande partie de l'IA dangereusement puissante – cela pourrait fournir une nouvelle façon puissante d'empêcher les nations voyoues ou les entreprises irresponsables de développer secrètement une IA dangereuse. Et un plus difficile à échapper que les lois ou traités conventionnels. Un rapport publié plus tôt ce mois-ci par le Centre de la sécurité américaine nouvelleun groupe de réflexion sur la politique étrangère des États-Unis influent, explique comment le silicium entravé est soigneusement entravé pourrait être exploité pour faire respecter une gamme de contrôles d'IA.

Certaines puces comportent déjà des composants de confiance conçus pour protéger les données sensibles ou se protéger contre une mauvaise utilisation. Les derniers iPhones, par exemple, conservent les informations biométriques d'une personne dans un «enclave sécurisée. ” Google utilise un puce personnalisée dans ses serveurs cloud pour s'assurer que rien n'a été falsifié.

Le document suggère d'exploiter des fonctionnalités similaires intégrées aux GPU – ou de gravir de nouvelles dans les futures puces – pour empêcher les projets d'IA d'accéder à plus d'une certaine puissance de calcul sans licence. Parce que une puissance de calcul lourde est nécessaire pour former les algorithmes d'IA les plus puissants, comme ceux derrière Chatgpt, qui limiterait qui peut construire les systèmes les plus puissants.

Les CNA indiquent que les licences pourraient être délivrées par un gouvernement ou un régulateur international et actualisées périodiquement, ce qui permet de couper l'accès à la formation de l'IA en refusant un nouveau. «Vous pouvez concevoir des protocoles de telle sorte que vous ne pouvez déployer un modèle que si vous avez effectué une évaluation particulière et obtenu un score au-dessus d'un certain seuil – par exemple pour la sécurité», explique Tim Fist, membre de CNA et l'un des trois auteurs de l'article.

Certains luminaires de l'IA craignent que l'IA devienne si intelligente qu'elle pourrait un jour s'avérer indisciplinée et dangereuse. Plus immédiatement, certains experts et gouvernements s'inquiètent que même les modèles d'IA existants pourraient faciliter le développement d'armes chimiques ou biologiques ou automatiser la cybercriminalité. Washington a déjà imposé une série de contrôles d'exportation des puces d'IA pour limiter l'accès de la Chine à l'IA la plus avancée, craignant d'être utilisé à des fins militaires – bien que la contrebande et l'ingénierie intelligente aient fourni certains façons de les contourner. Nvidia a refusé de commenter, mais la société a perdu des milliards de dollars de commandes en provenance de Chine en raison des derniers contrôles d'exportation américains.

Fist of CNA dit que bien que les restrictions de codage dur dans le matériel informatique puissent sembler extrêmement, il y a un précédent dans l'établissement d'infrastructures pour surveiller ou contrôler une technologie importante et appliquer les traités internationaux. «Si vous pensez à la sécurité et à la non-prolifération dans les technologies de vérification, les technologies de vérification étaient absolument essentielles pour garantir les traités», explique Fist of CNA. «Le réseau de sismomètres que nous devons maintenant détecter des essais nucléaires souterrains sous-traite des traités qui disent que nous ne testerons pas des armes souterraines au-dessus d'un certain seuil de kiloton.»

Les idées proposées par les CNA ne sont pas entièrement théoriques. Les puces d'entraînement IA entièrement importantes de Nvidia – Crucial pour construire les modèles d'IA les plus puissants – sont déjà venus avec Modules cryptographiques sécurisés. Et en novembre 2023, des chercheurs de la Future of Life Instituteun organisme à but non lucratif dédié à la protection de l'humanité contre les menaces existentielles, et Sécurité Mithrilune startup de sécurité, a créé une démo qui montre comment le module de sécurité d'un CPU Intel pourrait être utilisé pour un schéma cryptographique qui peut restreindre l'utilisation non autorisée d'un modèle d'IA.