L’IA s’invite dans l’évaluation scientifique et bouscule les règles établies
L’IA s’invite dans l’évaluation scientifique et bouscule les règles établies

L’intelligence artificielle est désormais solidement installée dans les pratiques de l’évaluation par les pairs, au cœur même du fonctionnement de la recherche scientifique. Une enquête internationale menée par l’éditeur Frontiers auprès d’environ 1 600 chercheurs dans 111 pays révèle qu’une majorité d’évaluateurs ont déjà eu recours à des outils d’IA pour examiner des manuscrits soumis à publication. Cette évolution rapide, souvent en décalage avec les recommandations officielles des éditeurs, met en lumière un décalage croissant entre les usages réels et les cadres réglementaires en vigueur. Selon les résultats publiés le 11 décembre, plus d’un chercheur sur deux reconnaît avoir utilisé l’IA dans le cadre de l’évaluation par les pairs. Près d’un quart indique même avoir intensifié cet usage au cours de l’année écoulée. Cette progression confirme l’ancrage des outils fondés sur les grands modèles de langage dans le quotidien académique, notamment pour faire face à la charge croissante de travail et à la complexité des manuscrits évalués. Les responsables de l’intégrité scientifique chez Frontiers constatent que cette pratique s’est installée bien au-delà de ce que prévoyaient les lignes directrices initiales. De nombreux éditeurs déconseillent toujours le recours à des outils externes capables de traiter des manuscrits non publiés, notamment pour des raisons de confidentialité et de protection de la propriété intellectuelle. Pourtant, dans les faits, les chercheurs ont déjà intégré ces technologies à leurs méthodes de travail, parfois sans les déclarer formellement.

Entre gain de temps et zones grises éthiques

L’enquête permet de mieux comprendre la nature de cet usage. Une majorité des chercheurs concernés utilisent l’IA pour les aider à formuler leurs rapports d’évaluation, en structurant les remarques ou en reformulant leurs analyses. D’autres s’en servent pour synthétiser rapidement un article, repérer des faiblesses méthodologiques, vérifier des références ou détecter des signaux pouvant évoquer un problème d’intégrité scientifique, comme des similitudes textuelles ou des incohérences dans les données visuelles. Ces pratiques soulèvent toutefois de nombreuses questions. Des spécialistes de l’éthique de la recherche soulignent que l’IA peut faciliter certaines tâches techniques, mais qu’elle ne saurait se substituer au jugement scientifique humain. Les outils actuels excellent dans la reformulation et la synthèse, mais peinent encore à évaluer la nouveauté réelle d’un travail, la solidité conceptuelle d’une hypothèse ou la pertinence d’une interprétation. 

Plusieurs chercheurs ont d’ailleurs testé concrètement les capacités de ces modèles

Des expérimentations récentes montrent que les évaluations générées par l’IA reproduisent souvent la forme et le ton attendus d’un rapport académique, tout en restant superficielles. Des erreurs factuelles, des approximations méthodologiques et un manque de critique fine sont régulièrement observés, y compris lorsque les outils sont utilisés avec des consignes détaillées et un contexte scientifique fourni. Face à cette situation, les éditeurs se retrouvent sous pression. Certains, comme Frontiers, autorisent un usage encadré de l’IA, à condition qu’il soit déclaré et limité à des fonctions d’assistance. D’autres maisons d’édition, plus prudentes, continuent d’afficher une confiance mesurée dans l’apport réel de ces technologies à l’évaluation par les pairs. Les enquêtes menées en parallèle par d’autres acteurs du secteur suggèrent d’ailleurs que nombre de chercheurs restent sceptiques quant à la capacité de l’IA à améliorer substantiellement la qualité des évaluations. Pour les observateurs, le débat ne porte plus sur la question de savoir si l’IA est utilisée, mais sur la manière dont elle doit l’être. Les appels se multiplient pour adapter les politiques éditoriales à cette nouvelle réalité, en définissant des règles claires, une transparence accrue et une responsabilité pleinement assumée par les évaluateurs humains. Sans cet ajustement, le risque est de voir s’installer durablement des pratiques opaques, susceptibles d’affaiblir la confiance dans un pilier essentiel de la production scientifique.

Partager