Des chercheurs utilisent l'IA en secret : Un danger pour la science ?
L’intelligence artificielle (IA) s’immisce désormais dans les laboratoires et les publications scientifiques, soulevant des questions cruciales sur l’intégrité de la recherche. Une étude récente révèle que plus de 13 % des articles biomédicaux portent les traces de ChatGPT et consorts.
En bref
- Une analyse de 15 millions d’articles biomédicaux révèle que 13,5 % des publications de 2024 présentent des signes d’utilisation d’IA.
- Les chercheurs ont identifié 454 mots « suspects » fréquemment utilisés par les outils d’IA comme « delve », « showcasing » et « underscore ».
- Les outils de détection actuels restent peu fiables, confondant parfois des textes historiques avec du contenu généré par IA.
- Les experts divisés : certains y voient un danger, d’autres une démocratisation de la recherche.
L’IA laisse ses empreintes dans la science
Des chercheurs de l’université Northwestern, en collaboration avec l’Institut Hertie pour l’IA appliquée à la santé, ont analysé plus de 15 millions de résumés scientifiques publiés sur PubMed. Leur constat est sans équivoque : en 2024, l’IA générative, notamment ChatGPT, a profondément marqué le langage de la recherche biomédicale.
Pour le démontrer, l’équipe a comparé la fréquence d’utilisation de certains mots-clés en 2024 avec celle des années 2021 et 2022. Et la différence est flagrante : des termes auparavant peu courants comme « delves », « underscores » ou « showcasing » connaissent une explosion d’usage, au point de devenir des marqueurs stylistiques typiques des textes générés par IA.
Cette « chasse aux mots » révèle pourtant une réalité plus nuancée. Stuart Geiger, professeur à l’université de Californie à San Diego, tempère l’alarme :
La langue évolue avec le temps. Le mot « delve » fait désormais partie du vocabulaire courant, en partie grâce à ChatGPT.
L’évolution linguistique pose ainsi un dilemme majeur. Comment distinguer une utilisation frauduleuse de l’IA d’une simple influence culturelle ? Plus préoccupant encore : les chercheurs risquent-ils de modifier leur style d’écriture naturel par peur d’être accusés à tort ?
Entre démocratisation et dérive éthique
Kathleen Perley, professeure à l’université Rice, adopte une position plus nuancée sur l’usage de l’IA dans la recherche scientifique.
Selon elle, ces outils peuvent jouer un rôle décisif dans la démocratisation de l’accès à la recherche académique, en particulier pour les chercheurs non-anglophones ou ceux souffrant de troubles d’apprentissage.
Dans un environnement académique dominé par l’anglais et les exigences formelles, l’IA peut offrir un véritable tremplin à des profils brillants, mais marginalisés par la barrière linguistique.
Cette approche soulève une question fondamentale : doit-on réellement pénaliser des chercheurs qui utilisent des outils pour franchir des obstacles structurels ? L’IA ne pourrait-elle pas, au contraire, faire émerger des travaux de qualité, jusqu’ici invisibles à cause de limitations rédactionnelles plutôt que conceptuelles ?
Dérives, biais et faux positifs, la science face aux limites de l’IA
Mais l’enthousiasme se heurte à des dérives bien réelles. L’exemple du chatbot Grok, développé par la société d’Elon Musk, en est une illustration glaçante.
Depuis sa dernière mise à jour, l’outil a produit une série de messages antisémites publiés sur X (ex-Twitter), allant jusqu’à justifier des propos haineux et faire l’éloge d’Hitler. De tels incidents rappellent que même les modèles les plus avancés peuvent véhiculer des biais dangereux s’ils ne sont pas correctement encadrés.
Parallèlement, les outils de détection d’IA peinent à faire preuve de fiabilité. ZeroGPT, par exemple, a estimé que la Déclaration d’indépendance des États-Unis était générée à 97 % par une IA, alors que GPTZero l’évalue à seulement 10 %. Cette incohérence révèle l’immaturité des technologies de détection et le risque d’accusations infondées.
Au-delà des outils techniques, l’émergence de l’IA dans la recherche scientifique interroge sur l’essence même de l’intellect. La rigueur, l’originalité et l’intégrité sont les piliers de la production scientifique. Peut-on préserver ces valeurs lorsque la frontière entre l’assistance et la substitution devient floue ?
Plus que jamais, les institutions académiques doivent définir des lignes directrices claires. Il ne s’agit pas de freiner l’innovation, mais de tracer une ligne entre usage éthique et fraude intellectuelle. L’avenir de la recherche repose sur notre capacité collective à intégrer l’intelligence artificielle sans perdre l’âme de la science.
Maximisez votre expérience Cointribune avec notre programme 'Read to Earn' ! Pour chaque article que vous lisez, gagnez des points et accédez à des récompenses exclusives. Inscrivez-vous dès maintenant et commencez à cumuler des avantages.
Passionné par le Bitcoin, j'aime explorer les méandres de la blockchain et des cryptos et je partage mes découvertes avec la communauté. Mon rêve est de vivre dans un monde où la vie privée et la liberté financière sont garanties pour tous, et je crois fermement que Bitcoin est l'outil qui peut rendre cela possible.
Les propos et opinions exprimés dans cet article n'engagent que leur auteur, et ne doivent pas être considérés comme des conseils en investissement. Effectuez vos propres recherches avant toute décision d'investissement.