AI Chatbots Are Learning to Spout Authoritarian Propaganda
Lorsque vous demandez Chatgpt «Que s'est-il passé en Chine en 1989?» Le bot décrit comment l'armée chinoise a massacré des milliers de manifestants pro-démocratie sur la place Tiananmen. Mais posez la même question à Ernie et vous obtenez le simple répondre qu'il n'a pas de «informations pertinentes». C'est parce qu'Ernie est un chatbot d'IA développé par la société chinoise Baidu.
Lorsque Openai, Meta, Google et Anthropic ont rendu leurs chatbots disponibles dans le monde l'année dernière, des millions de personnes les ont initialement utilisées pour échapper à la censure du gouvernement. Pour les 70% des internautes du monde qui vivent dans des endroits où l'État a bloqué les grandes plateformes de médias sociaux, les sites d'information indépendants ou le contenu des droits de l'homme et de la communauté LGBTQ, ces robots ont donné accès à des informations non filtrées qui peuvent façonner la vision d'une personne de leur identité, de leur communauté et de leur gouvernement.
Cela n'a pas été perdu sur les régimes autoritaires du monde, qui découvrent rapidement comment utiliser les chatbots comme un Nouvelle frontière pour la censure en ligne.
La réponse la plus sophistiquée à ce jour est en Chine, où le gouvernement pionnier l'utilisation de chatbots pour renforcer les contrôles de l'information de longue date. En février 2023, les régulateurs interdit Les conglomérats chinois Tencent et le groupe ANT d'intégrer Chatgpt dans leurs services. Le gouvernement alors Règles publiées En juillet, en obligeant que les outils génératifs de l'IA respectent la même large censure liant les services de médias sociaux, y compris une exigence pour promouvoir les «valeurs socialistes de base». Par exemple, il est illégal pour un chatbot de discuter de la persécution continue du Parti communiste chinois (CCP) des Oughurs et d'autres minorités du Xinjiang. Un mois plus tard, Apple a retiré 100 applications génératives de chatbot AI de son App Store chinois, conformément aux demandes du gouvernement. (Certaines sociétés américaines, y compris Openai, n'ont pas mis leurs produits disponibles Dans une poignée d'environnements répressifs, la Chine parmi eux.)
Dans le même temps, les autoritaires poussent les entreprises locales à produire leurs propres chatbots et cherchent à intégrer des contrôles d'information en leur conception. Par exemple, les règles chinoises de juillet 2023 exigent des produits d'IA génératifs comme le Bot Ernie pour garantir ce que le PCC définit comme la «vérité, précision, objectivité et diversité» des données de formation. Ces contrôles semblent être payants: les chatbots produits par les sociétés basés en Chine ont refusé de s'engager avec les invites utilisateur sur des sujets sensibles et ont perroché la propagande du CCP. Les modèles de gros langues formés sur la propagande de l'État et les données censurés produisent naturellement des résultats biaisés. Dans un récent étudeun modèle d'IA formé sur l'encyclopédie en ligne de Baidu – qui doit respecter les directives de censure du PCC – des mots associés comme «liberté» et «démocratie» avec des connotations plus négatives qu'un modèle formé sur le wikipedia chinois, qui est isolé de la censure directe.
De même, le gouvernement russe listes La «souveraineté technologique» comme principe fondamental de son approche de l'IA. Alors que les efforts pour réglementer l'IA en sont à leurs balbutiements, plusieurs sociétés russes ont lancé leurs propres chatbots. Lorsque nous avons demandé à Alice, un bot généré par l'IA créé par Yandex, sur l'invasion à grande échelle du Kremlin de l'Ukraine en 2021, on nous a dit qu'il n'était pas prêt à discuter de ce sujet, afin de ne offenser personne. En revanche, le barde de Google a fourni une litanie de facteurs contributifs pour la guerre. Lorsque nous avons posé à Alice d'autres questions sur les nouvelles – comme «qui est Alexey Navalny?» – Nous avons reçu des réponses tout aussi vagues. Bien qu'il ne soit pas clair si Yandex est auto-censuré son produit, agissant sur une commande gouvernementale ou n'a tout simplement pas formé son modèle sur les données pertinentes, nous savons que ces sujets sont déjà censurés en ligne en Russie.
Ces développements en Chine et en Russie devraient servir d'alerte précoce. Alors que d'autres pays peuvent manquer de puissance informatique, de ressources technologiques et d'appareils réglementaires pour développer et contrôler leurs propres chatbots d'IA, les gouvernements plus répressifs sont susceptibles de percevoir les LLM comme une menace pour leur contrôle sur les informations en ligne. Les médias d'État vietnamiens ont déjà publié un article dénigrant les réponses de Chatgpt aux Invite le Parti communiste du Vietnam et son fondateur, Hồ Chí Minh, disant qu'ils étaient insuffisamment patriotiques. Un éminent responsable de la sécurité a appelé à de nouveaux Contrôles et réglementation au-dessus de la technologie, citant des inquiétudes selon lesquelles cela pourrait faire perdre confiance au peuple vietnamien dans le parti.
L'espoir que les chatbots peuvent aider les gens à échapper à la censure en ligne résonnent les promesses précoces que les plateformes de médias sociaux aideraient les gens à contourner les médias hors ligne contrôlés par l'État. Bien que peu de gouvernements aient été en mesure de réprimer les médias sociaux au début, certains se sont rapidement adaptés par des plateformes de blocage, mandat qu'ils filtrent le discours critique, ou soutenir Alternatives alignées par l'État. Nous pouvons nous attendre à plus de la même chose que les chatbots deviennent de plus en plus omniprésents. Les gens devront être clairs sur la façon dont ces outils émergents peuvent être exploités pour renforcer la censure et travailler ensemble pour trouver une réponse efficace s'ils espèrent tourner la tendance à la baisse de la liberté d'Internet.
Opinion câblée Publie des articles par des contributeurs externes représentant un large éventail de points de vue. Lire plus d'opinions ici. Soumettre un éditorial à idé[email protected].