L’intelligence artificielle pollue les publications scientifiques et brouille le savoir
L’intelligence artificielle pollue les publications scientifiques et brouille le savoir

Un bouton clignotant dans un article de physique. Trois mots anodins, « Regenerate response », qui n’avaient rien à faire là. En août 2023, Guillaume Cabanac, professeur à l’université de Toulouse-III et traqueur chevronné de dérives scientifiques, comprend aussitôt : ce fragment est un artefact laissé par ChatGPT. L’article, publié par une maison d’édition respectable, sera rapidement retiré. C’était le premier signal, le début d’une dérive plus large. Depuis, les exemples se multiplient. Un rat caricatural affublé d’un sexe disproportionné dans une publication de biologie, des phrases typiques des IA telles que « selon ma dernière mise à jour » disséminées dans les textes, des images générées qui trahissent une main non humaine. Des documentalistes comme Alex Glynn, à Louisville (Kentucky), ont pris le relais de la détection. Plus de 500 articles suspects ont déjà été recensés, y compris dans les publications d’éditeurs prestigieux comme Elsevier ou Springer Nature.

Des règles floues dans un monde en mutation

Face à cette poussée, les grands éditeurs réagissent. Ils ne condamnent pas l’usage de l’intelligence artificielle, à condition qu’elle soit utilisée de manière « éthique » et « supervisée ». L’IA est vue comme un outil puissant, capable d’accélérer l’innovation et de renforcer la qualité des travaux. Mais elle reste sous surveillance. Des outils de détection d’images ou de plagiats ont été intégrés, comme une barrière de verre contre la triche invisible. Mais la brèche ne concerne pas seulement les auteurs. Le système d’évaluation par les pairs, socle de la crédibilité scientifique, est à son tour infiltré. En février, l’écologue Timothée Poisot, de l’université de Montréal, dénonçait un rapport d’évaluation visiblement rédigé par une IA : « ChatGPT n’est pas un pair. Il ne doit pas évaluer mes articles. » La réplique a résonné jusqu’aux instances européennes. En avril, lors d’un colloque de l’Office français de l’intégrité scientifique, la chercheuse Vasiliki Mollaki a évoqué les dangers du recours aux intelligences artificielles dans l’évaluation : perte de confiance, confusion sur l’origine des décisions, fragilisation de l’ensemble du système. Le flou persiste. Si les éditeurs encadrent l’usage de l’IA par les chercheurs dans les articles, la question de son utilisation pour relire ou évaluer reste taboue. Le dixième congrès international du peer review, prévu en septembre, abordera cette zone grise.

Une automatisation du savoir à double tranchant

La tentation de l’automatisation est forte. Trop de publications, trop peu de relecteurs, une pression financière accrue sur les éditeurs… Le recours aux IA permettrait de gagner du temps, de maintenir le rythme, de produire à la chaîne. Mais à quel prix ? Vincent Larivière, professeur à l’université de Montréal, résume : « L’IA facilite certaines tâches, comme la traduction ou la recherche documentaire. Mais elle alimente aussi la surproduction, les biais et les pratiques douteuses. » Le scénario d’une science produite, relue et diffusée par des logiciels se dessine lentement. Dans les zones grises de l’édition scientifique, des machines dialoguent entre elles, produisent des connaissances parfois opaques, parfois vides. Sandrine Malotaux, directrice des bibliothèques à l’université de Toulouse, interroge cette dérive : « Que vaudront les connaissances produites par des intelligences artificielles, jugées par d’autres intelligences artificielles ? » La question reste ouverte. Mais elle n’a jamais paru aussi urgente.

Partager