Récemment, une analyse basée sur 14 millions de résumés PubMed a attiré l'attention. L'étude a révélé l'impact significatif des générateurs de texte IA, en particulier ChatGPT, sur la rédaction de documents scientifiques. En analysant les changements de style linguistique, les chercheurs ont découvert le vocabulaire caractéristique des textes générés par l’IA et ont estimé la proportion de résumés affectés par l’IA. Cette étude fournit non seulement des données quantitatives, mais explore également les avantages et les inconvénients de l’IA dans la rédaction scientifique, ainsi que les différences entre les différents pays et revues, déclenchant ainsi de nouvelles discussions sur les normes de rédaction scientifique et l’éthique de l’IA.
Une analyse de 14 millions de résumés PubMed montre que les générateurs de texte IA ont influencé au moins 10 % des résumés scientifiques depuis le lancement de ChatGPT, et dans certains domaines et pays, la proportion est encore plus élevée. Des chercheurs de l’Université de Tübingen et de la Northwestern University ont étudié les changements linguistiques dans 14 millions de résumés scientifiques entre 2010 et 2024. Ils ont constaté que ChatGPT et les générateurs de texte IA similaires entraînaient une augmentation significative du vocabulaire de certains styles. Les chercheurs ont identifié pour la première fois des mots apparaissant beaucoup plus fréquemment en 2024 que les années précédentes. Ces mots incluent de nombreux verbes et adjectifs typiques du style d'écriture de ChatGPT, tels que « creuser en profondeur », « complexe », « présenter » et « se démarquer ». Sur la base de ces mots signatures, les chercheurs estiment que d’ici 2024, les générateurs de texte IA influenceront au moins 10 % de tous les résumés PubMed. Dans certains cas, cet impact dépasse même l’impact de mots comme « Covid », « pandémie » ou « Ebola » au cours de leur période. Les chercheurs ont découvert qu'environ 15 % des résumés des sous-groupes PubMed dans des pays comme la Chine et la Corée du Sud étaient générés à l'aide de ChatGPT, contre seulement 3 % au Royaume-Uni. Cependant, cela ne signifie pas nécessairement que les auteurs britanniques utilisent moins ChatGPT. En fait, selon les chercheurs, l’utilisation réelle des générateurs de texte IA pourrait être bien plus élevée. De nombreux chercheurs modifient le texte généré par l’IA pour supprimer les mots typiques du logo. Les locuteurs natifs peuvent avoir un avantage ici car ils sont plus susceptibles de remarquer de telles phrases. Il est donc difficile de déterminer la véritable proportion de résumés affectés par l’IA. Dans une fourchette mesurable, l’utilisation de l’IA est particulièrement élevée dans les revues, avec environ 17 % dans les revues Frontiers et MDPI, et 20 % dans les revues informatiques. Parmi les revues informatiques, la proportion d'auteurs chinois est la plus élevée, atteignant 35 %. Pour les auteurs scientifiques, l’IA peut contribuer à rendre les articles plus lisibles. L'auteur de l'étude, Dmitry Kobak, a déclaré que l'IA générative conçue spécifiquement pour la synthèse n'est pas nécessairement le problème. Cependant, les générateurs de textes basés sur l’IA peuvent également fabriquer des faits, renforcer des préjugés, voire commettre du plagiat, et réduire la diversité et l’originalité des textes scientifiques. Il semble quelque peu ironique que le modèle de langage scientifique open source « Galactica » publié par Meta Company peu de temps avant la sortie de ChatGPT ait été sévèrement critiqué par certaines personnes de la communauté scientifique, obligeant Meta à le mettre hors ligne. Cela n’a évidemment pas empêché l’IA générative d’entrer dans la rédaction scientifique, mais cela a peut-être empêché l’introduction d’un système spécifiquement optimisé pour cette tâche. Points forts : Une analyse des résumés PubMed a révélé que depuis le lancement de ChatGPT, au moins 10 % des résumés scientifiques ont été affectés par le générateur de texte IA. Dans le sous-groupe PubMed dans des pays comme la Chine et la Corée du Sud, environ 15 % des résumés ont été générés à l'aide de ChatGPT, contre seulement 3 % au Royaume-Uni. Les chercheurs appellent à une réévaluation des lignes directrices pour l’utilisation des générateurs de texte IA dans le domaine scientifique, car les générateurs de texte IA peuvent fabriquer des faits, renforcer les préjugés et même commettre du plagiat.
Les résultats de cette étude nous avertissent que l’application de l’IA dans la rédaction scientifique doit être traitée avec prudence et que des normes et des lignes directrices éthiques plus strictes doivent être formulées pour garantir l’intégrité académique et la fiabilité de la recherche. Les recherches futures devraient explorer davantage les moyens de mieux identifier et éviter les risques liés au texte généré par l’IA et d’équilibrer la commodité et les effets négatifs potentiels de l’écriture assistée par l’IA.