Meta Ran a Giant Experiment in Governance. Now It’s Turning to AI

À la fin du mois dernier, Meta a annoncé discrètement les résultats d'un processus «démocrate» délibératif ambitieux et presque global pour éclairer les décisions concernant la responsabilité de l'entreprise pour le métaverse qu'elle crée. Ce n'était pas un exercice d'entreprise ordinaire. Cela impliquait plus de 6 000 personnes qui ont été choisies pour être représentatives démographiquement dans 32 pays et 19 langues. Les participants ont passé de nombreuses heures dans la conversation lors de petites séances de groupe en ligne et ont pu entendre des experts non-META sur les questions en discussion. Quatre-vingt-deux pour cent des participants ont déclaré qu'ils recommanderaient ce format comme un moyen pour l'entreprise de prendre des décisions à l'avenir.

Meta s'est désormais publié publiquement à gérer un processus similaire pour une IA générative, une décision qui s'aligne sur l'énorme explosion d'intérêt pour l'innovation démocratique pour gouverner ou guider les systèmes d'IA. Ce faisant, Meta rejoint Google, Deepmind, Openai, Anthropic et d'autres organisations qui commencent à explorer des approches basées sur le type de démocratie délibérative qui Moi et autres ont été défendre. (Divulgation: je fais partie du comité consultatif de candidature pour le Openai Democratic Entrée à l'IA Grant.) Ayant vu l'intérieur du processus de Meta, je suis enthousiasmé par cela comme une preuve de concept précieuse pour la gouvernance démocratique transnationale. Mais pour qu'un tel processus soit vraiment démocratique, les participants auraient besoin d'un plus grand pouvoir et d'une plus grande agence, et le processus lui-même devrait être plus public et transparent.

J'ai d'abord connu plusieurs des employés responsables de la création de forums communautaires de META (comme ces processus ont été appelés) au printemps 2019 lors d'une consultation externe plus traditionnelle avec l'entreprise pour déterminer sa politique sur les «médias manipulés». J'avais été en écrivant et Parlant sur les risques potentiels de ce qu'on appelle désormais l'IA génératrice et a été invité (aux côtés d'autres experts) pour fournir des commentaires sur le type de politiques que Meta devrait développer pour aborder des questions telles que la désinformation Cela pourrait être exacerbé par la technologie.

À peu près au même moment, j'ai d'abord appris délibérations représentatives– Une approche de la prise de décision démocratique qui a décollé comme des incendies de forêt, avec des assemblées citoyens de plus en plus médiatisées et des sondages délibératifs dans le monde entier. L'idée de base est que les gouvernements renvoient les questions politiques difficiles au public pour décider. Au lieu d'un référendum ou d'élections, un microcosme représentatif du public est sélectionné via la loterie. Ce groupe est réuni pendant des jours, voire des semaines (avec une rémunération) pour apprendre des experts, des parties prenantes et des autres avant de venir à un ensemble final de recommandations.

Les délibérations représentatives ont fourni une solution potentielle à un dilemme avec lequel je lutte depuis longtemps: comment prendre des décisions sur les technologies qui ont un impact sur les personnes à travers les frontières nationales. J'ai commencé Plaider pour les entreprises pour piloter ces processus pour aider à prendre des décisions autour de leur Problèmes les plus difficiles. Lorsque Meta a lancé indépendamment un tel pilote, je suis devenu un conseiller informel du laboratoire de gouvernance de l'entreprise (qui dirigeait le projet), puis un observateur intégré lors de la conception et de l'exécution de son mammouth 32-Country Community Forum Process (je n'ai accepté la rémunération pour aucun de ce moment).

Surtout, le forum communautaire était excitant car il a montré que l'exécution de ce type de processus est réellement possible, malgré les immenses obstacles logistiques. Les partenaires de Meta à Stanford ont largement dirigé la procédure, et je n'ai vu aucune preuve de méta-employés qui tentent de forcer un résultat. La société a également suivi son engagement à avoir ces partenaires à Stanford Signaler directement les résultatspeu importe ce qu'ils étaient. De plus, il était clair que certains pensaient avoir été mis dans la meilleure façon de mettre en œuvre les résultats potentiels du forum. Les résultats ont fini par inclure des perspectives sur les types de répercussions appropriés pour les hôtes des espaces métaverse avec un intimidation et un harcèlement répétés et quels types de systèmes de modération et de surveillance devraient être mis en œuvre.