OpenAI’s New Tool Will Give Artists Control Over Their Data—but It’s Unclear How
Openai combat des poursuites en artistes, écrivains et éditeurs qui allèguent qu'il a utilisé de manière inappropriée leur travail pour former les algorithmes derrière Chatgpt et d'autres systèmes d'IA. Mardi, la société a annoncé un outil apparemment conçu pour apaiser les créatifs et les détenteurs de droits en leur accordant un certain contrôle sur la façon dont Openai utilise leur travail.
La société affirme qu'elle lancera un outil en 2025 appelé Media Manager qui permet aux créateurs de contenu de refuser son travail à partir du développement de l'IA de l'entreprise. Dans Un article de blogOpenai a décrit l'outil comme un moyen de permettre aux «créateurs et aux propriétaires de contenu de nous dire ce qu'ils possèdent» et de spécifier «comment ils veulent que leurs œuvres soient incluses ou exclues de la recherche et de la formation sur l'apprentissage automatique».
Openai a déclaré qu'il travaillait avec «les créateurs, les propriétaires de contenu et les régulateurs» pour développer l'outil et l'intention de «définir une norme de l'industrie». La société n'a nommé aucun de ses partenaires sur le projet ni indiqué exactement comment l'outil fonctionnera.
Les questions ouvertes sur le système incluent si les propriétaires de contenu seront en mesure de faire une seule demande pour couvrir toutes leurs travaux et si OpenAI autorisera les demandes liées aux modèles qui ont déjà été formés et lancés. La recherche est en cours sur la machine «désapprentissage», un processus qui ajuste un système d'IA pour supprimer rétrospectivement la contribution d'une partie de ses données de formation, mais la technique n'a pas été perfectionnée.
Ed Newton-Rex, PDG de la startup Fairly Formed, qui certifie les sociétés d'IA qui utilisent des données de formation sur l'éthique, indique que le changement apparent d'Openai sur les données de formation est le bienvenu, mais que la mise en œuvre sera critique. «Je suis content de voir Openai s'engager avec ce problème. Que cela aidera ou non les artistes à se résumer dans les détails, qui n'ont pas encore été fournis », dit-il. La première question majeure dans son esprit: est-ce simplement un outil de retrait qui laisse Openai continue d'utiliser des données sans autorisation à moins qu'un propriétaire de contenu ne demande son exclusion? Ou représentera-t-il un changement plus important dans la façon dont les affaires Openai? OpenAI n'a pas immédiatement renvoyé de demande de commentaire.
Newton-Rex est également curieux de savoir si OpenAI permettra à d'autres sociétés d'utiliser son gestionnaire de médias afin que les artistes puissent signaler leurs préférences à plusieurs développeurs d'IA à la fois. «Si ce n'est pas le cas, cela ajoutera simplement une complexité supplémentaire à un environnement de retrait déjà complexe», explique Newton-Rex, qui était autrefois un cadre de Stability IA, développeur du générateur d'images de diffusion stable.
OpenAI n'est pas le premier à rechercher des moyens pour les artistes et autres créateurs de contenu de signaler leurs préférences sur l'utilisation de leurs données de travail et personnelles pour les projets d'IA. D'autres sociétés technologiques, d'Adobe à Tumblr, proposent également des outils d'opt-out concernant la collecte de données et l'apprentissage automatique. La startup Spawning a lancé un registre appelé Ne s'entraînez pas Il y a près de deux ans, et les créateurs ont déjà ajouté leurs préférences pour 1,5 milliard d'œuvres.
Jordan Meyer, PDG de Spawning, a déclaré que la société ne travaille pas avec Openai sur son projet de gestionnaire de médias, mais qu'il est ouvert à le faire. «Si Openai est en mesure de réjouir ou de respecter les désactivés universels plus facilement, nous incorporerons volontiers leur travail dans notre suite», dit-il.