OpenAI Employees Warn of a Culture of Risk and Retaliation

Un groupe d'employés actuels et anciens OpenAI a publié Une lettre publique AVERTISSEMENT que l'entreprise et ses rivaux construisent l'intelligence artificielle avec un risque indue, sans une surveillance suffisante, et tout en muselant des employés qui pourraient assister à des activités irresponsables.

«Ces risques vont de l'entracte supplémentaire des inégalités existantes à la manipulation et à la désinformation, à la perte de contrôle des systèmes d'IA autonomes, entraînant une extinction humaine», indique la lettre publiée à RightTowarn.ai. «Tant qu'il n'y a pas de surveillance gouvernementale efficace de ces sociétés, les employés actuels et anciens font partie des rares personnes qui peuvent les tenir responsables.»

La lettre nécessite non seulement Openai, mais toutes les entreprises de l'IA à ne pas punir les employés qui s'expriment de leurs activités. Il appelle également les entreprises à établir des moyens «vérifiables» pour les travailleurs de fournir des commentaires anonymes sur leurs activités. “Les protections de dénonciation ordinaires sont insuffisantes car elles se concentrent sur l'activité illégale, tandis que bon nombre des risques qui nous préoccupent ne sont pas encore réglementés”, indique la lettre. «Certains d'entre nous craignent raisonnablement diverses formes de représailles, étant donné l'histoire de ces cas dans l'industrie.»

Openai a été critiqué le mois dernier après Un article Vox a révélé que l'entreprise a menacé de récupérer les fonds propres des employés s'ils ne signent pas des accords de non-négociation qui leur interdisent de critiquer l'entreprise ou même de mentionner l'existence d'un tel accord. PDG d'Openai, Sam Altman, dit sur x récemment qu'il n'était pas au courant de ces arrangements et que l'entreprise n'avait jamais récupéré les capitaux propres de quiconque. Altman a également déclaré que la clause serait supprimée, libérant des employés à s'exprimer.


Vous avez un pourboire?

Êtes-vous un employé actuel ou ancien d'Openai? Nous aimerions avoir de vos nouvelles. À l'aide d'un téléphone ou d'un ordinateur non de travail, Contact Will Knight à [email protected] ou en toute sécurité sur le signal à Wak.01.


OpenAI a également récemment modifié son approche pour gérer la sécurité. Le mois dernier, un groupe de recherche OpenAI chargé d'évaluer et de contrer les risques à long terme posés par les modèles d'IA plus puissants de l'entreprise a été effectivement dissous après plusieurs chiffres importants et les membres restants de l'équipe ont été absorbés par d'autres groupes. Quelques semaines plus tard, La société a annoncé qu'il avait créé un comité de sécurité et de sécurité, dirigé par Altman et d'autres membres du conseil d'administration.

En novembre dernier, Altman a été licencié par le conseil d'administration d'Openai pour avoir prétendument omis de divulguer des informations et de les tromper délibérément. Après un combat très public, Altman est retourné dans l'entreprise et la majeure partie du conseil d'administration a été évincée.

«Nous sommes fiers de nos antécédents fournissant les systèmes d'IA les plus capables et les plus sûrs et croyons en notre approche scientifique pour lutter contre les risques», a déclaré la porte-parole d'OpenAI, Liz Bourgeois dans un communiqué. «Nous convenons que un débat rigoureux est crucial étant donné l'importance de cette technologie et nous continuerons de s'engager avec les gouvernements, la société civile et d'autres communautés du monde entier.»

Les signataires des lettres comprennent des personnes qui ont travaillé sur la sécurité et la gouvernance à OpenAI, les employés actuels qui ont signé de manière anonyme et les chercheurs qui travaillent actuellement dans des sociétés rivales d'IA. Il a également été approuvé par plusieurs grands chercheurs d'IA, dont Geoffrey Hinton et Yoshua Bengio, qui ont tous deux remporté le prix Turing pour la recherche pionnière de l'IA, et Stuart Russellun expert de premier plan sur la sécurité de l'IA.