AI Desperately Needs Global Oversight

Chaque fois que vous Publier une photo, répondre sur les réseaux sociaux, créer un site Web, ou peut-être même envoyer un e-mail, vos données sont grattées, stockées et utilisées pour former une technologie d'IA générative qui peut créer du texte, de l'audio, de la vidéo et des images avec seulement quelques mots. Cela a de réelles conséquences: les chercheurs Openai étudier L'impact sur le marché du travail de leurs modèles linguistiques a estimé qu'environ 80% de la main-d'œuvre américaine pourrait avoir au moins 10% de leurs tâches de travail affectées par l'introduction de modèles de langue importante (LLM) comme Chatgpt, tandis qu'environ 19% des travailleurs peuvent voir au moins la moitié de leurs tâches affectées. Nous constatons également un changement de marché du travail immédiat avec la génération d'images. En d'autres termes, les données que vous avez créées peuvent vous mettre hors d'un emploi.

Lorsqu'une entreprise construit sa technologie sur une ressource publique – l'Internet – il est judicieux de dire que cette technologie devrait être disponible et ouverte à tous. Mais les critiques ont noté que GPT-4 manque Toute information ou spécifications claires qui permettrait à quiconque en dehors de l'organisation reproduire, tester ou vérifier tout aspect du modèle. Certaines de ces sociétés ont reçu de grandes sommes de financement d'autres sociétés importantes pour créer des produits commerciaux. Pour certains dans la communauté de l'IA, c'est un signe dangereux que ces entreprises vont rechercher des bénéfices au-dessus des avantages publics.

Il est peu probable que la transparence du code s'assure que ces modèles d'IA génératifs servent le bien public. Selon l'étude OpenAI, il y a peu d'avantages immédiats concevables pour un journaliste, un analyste politique ou un comptable (toutes les professions à «exposition élevée». Nous avons de plus en plus des lois, comme la loi sur les services numériques, qui obligerait certaines de ces sociétés à ouvrir leur code et leurs données pour l'examen des auditeurs experts. Et le code open source peut parfois permettre aux acteurs malveillants, permettant aux pirates de renverser les précautions de sécurité dans lesquelles les entreprises construisent. La transparence est un objectif louable, mais cela seul ne garantit pas que l'IA génératrice est utilisée pour mieux la société.

Afin de vraiment créer des avantages publics, nous avons besoin de mécanismes de responsabilité. Le monde a besoin d'un organisme génératif de gouvernance mondiale de l'IA pour résoudre ces perturbations sociales, économiques et politiques au-delà de ce dont tout gouvernement individuel est capable, ce que tout groupe de société académique ou civil peut mettre en œuvre, ou toute société est disposée ou capable de faire. Il existe déjà un précédent pour la coopération mondiale des entreprises et des pays pour se tenir responsable des résultats technologiques. Nous avons des exemples de groupes et d'organisations d'experts indépendants et bien financés qui peuvent prendre des décisions au nom du bien public. Une entité comme celle-ci est chargée de penser aux avantages à l'humanité. Grâce à ces idées pour aborder les problèmes fondamentaux que l'IA générative fait déjà surface.

À l'époque de la prolifération nucléaire après la Seconde Guerre mondiale, par exemple, il y avait une crainte crédible et significative des technologies nucléaires devenues voyous. La croyance généralisée que la société a dû agir collectivement pour éviter les catastrophes mondiales fait écho à de nombreuses discussions aujourd'hui autour des modèles d'IA génératifs. En réponse, les pays du mondeAIEA), un organisme indépendant sans affiliation gouvernementale et d'entreprise qui fournirait des solutions aux ramifications de grande envergure et aux capacités apparemment infinies des technologies nucléaires. Il opère dans trois domaines principaux: l'énergie nucléaire, la sécurité et la sécurité nucléaires et les garanties. Par exemple, après le Fukushima Désastré en 2011, il a fourni des ressources critiques, l'éducation, les tests et les rapports d'impact et a aidé à garantir la sécurité nucléaire continue. Cependant, l'agence est limitée: elle s'appuie sur les États membres pour se conformer volontairement à ses normes et directives, ainsi que sur leur coopération et leur assistance pour mener à bien sa mission.

Dans Tech, Facebook Comité de surveillance est une tentative de travail pour équilibrer la transparence avec la responsabilité. Les membres du conseil d'administration sont un groupe mondial interdisciplinaire et leurs jugements, tels que renversement Une décision prise par Facebook de supprimer un message qui représentait le harcèlement sexuel en Inde, est contraignant. Ce modèle n'est pas parfait non plus; Il y a des accusations de capture d'entreprise, car le conseil d'administration est financé uniquement par Meta, bien que par une fiducie indépendante, et se préoccupe principalement des retraits de contenu.