Use of AI Is Seeping Into Academic Journals—and It’s Proving Difficult to Detect
Les experts disent qu'il y a un équilibre à trouver dans le monde académique lors de l'utilisation de l'IA générative – cela pourrait rendre le processus d'écriture plus efficace et aider les chercheurs à transmettre plus clairement leurs résultats. Mais la technologie – lorsqu'elle est utilisée dans de nombreux types d'écriture – a également chuté fausses références dans ses réponses, a inventé les choses et réitéré Contenu sexiste et raciste d'Internet, qui seraient tous problématiques s'ils étaient inclus dans l'écriture scientifique publiée.
Si les chercheurs utilisent ces réponses générées dans leur travail sans vérification ou divulgation stricte, ils soulèvent des problèmes de crédibilité majeurs. Ne pas divulguer l'utilisation de l'IA signifierait que les auteurs passent du contenu générateur d'IA comme leur propre, ce qui pourrait être considéré comme le plagiat. Ils pourraient également étendre les hallucinations de l'IA, ou sa capacité étrange à inventer les choses et à les dire comme un fait.
C'est un gros problème, David Resnik, bioéthiciste à l'Institut national des sciences de la santé environnementale, dit de l'utilisation de l'IA dans les travaux scientifiques et académiques. Pourtant, dit-il, l'IA génératrice n'est pas si mauvaise – cela pourrait aider les chercheurs dont la langue maternelle n'est pas l'anglais écrire de meilleurs articles. «L'IA pourrait aider ces auteurs à améliorer la qualité de leur écriture et leurs chances de faire accepter leurs articles», explique Resnik. Mais ceux qui utilisent l'IA devraient le divulguer, ajoute-t-il.
Pour l'instant, il est impossible de savoir à quel point l'IA est largement utilisée dans l'édition académique, car il n'y a pas de moyen infaillible de vérifier l'utilisation de l'IA, comme il y a pour le plagiat. Le Politique de ressources Le document a attiré l'attention d'un chercheur parce que les auteurs semblent avoir accidentellement laissé un indice sur l'implication possible d'un modèle de langue large. «Ce sont vraiment les conseils de l'iceberg qui dépasse», explique Elisabeth Bik, une consultante en intégrité scientifique qui dirige le blog Digest de l'intégrité scientifique. «Je pense que c'est un signe que cela se produit à très grande échelle.»
En 2021, Guillaume Cabanac, professeur d'informatique à l'Université de Toulouse en France, a trouvé des phrases étranges dans des articles académiques, comme la «conscience contrefaite» au lieu de «l'intelligence artificielle». Lui et une équipe ont inventé l'idée de chercher “phrases torturées»Ou Word Soup à la place de termes simples, comme des indicateurs selon lesquels un document provient probablement de générateurs de texte. Il est également à la recherche de l'IA générative dans les revues, et c'est celui qui a signalé le Politique de ressources Étude sur X.
Cabanac étudie les études qui peuvent être problématiques et il a signalé une utilisation d'IA potentiellement non divulguée. Pour protéger l'intégrité scientifique à mesure que la technologie se développe, les scientifiques doivent se renseigner, dit-il. «Nous, en tant que scientifiques, devons agir en nous entraînant en nous connaissant, en connaissant les fraudes», explique Cabanac. «C'est un jeu Whack-A-Mole. Il existe de nouvelles façons de tromper. “
Les progrès technologiques ont depuis rendu ces modèles linguistiques encore plus convaincants – et plus attrayants en tant que partenaire d'écriture. En juillet, deux chercheurs Utilisé Chatgpt pour rédiger un document de recherche entier en une heure pour tester les capacités du chatbot à rivaliser dans le monde de l'édition scientifique. Ce n'était pas parfait, mais incitant le chatbot a rassemblé un papier avec une analyse solide.