AI Is Becoming More Powerful—but Also More Secretive

À travers ces mesures, les chercheurs ont constaté qu'aucun modèle n'avait atteint plus de 54% sur leur échelle de transparence à tous ces critères. Dans l'ensemble, le texte du Titan d'Amazon a été jugé le moins transparent, tandis que Llama 2 de Meta a été couronné le plus ouvert. Mais même un modèle «open source» comme Llama 2 s'est révélé assez opaque, car Meta n'a pas divulgué les données utilisées pour sa formation, comment ces données ont été collectées et organisées, ni qui ont fait le travail.

Nathan Strauss, porte-parole d'Amazon, a déclaré que la société examinait de près l'indice. «Le texte Titan est toujours en avant-première, et il serait prématuré de évaluer la transparence d'un modèle de fondation avant d'être prêt pour la disponibilité générale», dit-il. Meta a refusé de commenter le rapport de Stanford et Openai n'a pas répondu à une demande de commentaires.

Époustouflage de Mizasaniun doctorant à Stanford qui a travaillé sur l'étude, dit que cela reflète le fait que l'IA devient plus opaque même si elle devient plus influente. Cela contraste grandement avec le dernier grand boom de l'IA, lorsque l'ouverture a aidé à alimenter les grandes progrès des capacités, y compris la reconnaissance de la parole et de l'image. «À la fin des années 2010, les entreprises étaient plus transparentes au sujet de leurs recherches et ont publié beaucoup plus», a déclaré Bommasani. «C'est la raison pour laquelle nous avons eu le succès de l'apprentissage en profondeur.»

Le rapport de Stanford suggère également que les modèles n'ont pas besoin d'être si secrètes pour des raisons compétitives. Kevin Klyman, chercheur en politique à Stanford, a déclaré que le fait qu'un éventail de modèles de premier plan score relativement fortement sur différentes mesures de transparence suggère que toutes pourraient devenir plus ouvertes sans perdre à cause des concurrents.

Alors que les experts de l'IA tentent de déterminer où ira la récente épanouissement de certaines approches de l'IA, certains disent que les risques de secret rendent le domaine moins une discipline scientifique qu'une discipline à profit.

«C'est une période essentielle de l'histoire de l'IA», dit Jesse Dodgeun chercheur scientifique à l'Institut Allen pour l'IA ou AI2. «Les acteurs les plus influents créant aujourd'hui des systèmes d'IA génératifs sont de plus en plus fermés, ne partageant pas les détails clés de leurs données et de leurs processus.»

AI2 essaie de développer un modèle de langue IA beaucoup plus transparent, appelé Orme. Il est formé à l'aide d'une collection de données provenant du Web, des publications académiques, du code, des livres et des encyclopédies. Cet ensemble de données, appelé Remplissagea été libéré sous AI2 Licence d'impact. Lorsque OLMO est prêt, AI2 prévoit de libérer le système d'IA de travail et également le code derrière, permettant aux autres de s'appuyer sur le projet.

Dodge dit que l'élargissement de l'accès aux données derrière de puissants modèles d'IA est particulièrement important. Sans accès direct, il est généralement impossible de savoir pourquoi ou comment un modèle peut faire ce qu'il fait. «L'avance de la science nécessite une reproductibilité», dit-il. «Sans être accordé en libre accès à ces éléments de construction cruciaux de la création de modèles, nous resterons dans une situation« fermée », stagnante et propriétaire.»

Compte tenu de la manière dont les modèles d'IA sont largement déployés – et à quel point certains experts prévoient dangereux – un peu plus d'ouverture pourrait aller très loin.