Recientemente, un análisis basado en 14 millones de resúmenes de PubMed llamó la atención. El estudio reveló el impacto significativo de los generadores de texto de IA, especialmente ChatGPT, en la redacción de documentos científicos. Al analizar los cambios en el estilo del lenguaje, los investigadores descubrieron el vocabulario característico del texto generado por IA y estimaron la proporción de resúmenes afectados por la IA. Este estudio no solo proporciona datos cuantitativos, sino que también explora los pros y los contras de la IA en la redacción científica, así como las diferencias entre diferentes países y revistas, lo que desencadena más debates sobre las normas de redacción científica y la ética de la IA.
Un análisis de 14 millones de resúmenes de PubMed muestra que los generadores de texto de IA han influido en al menos el 10% de los resúmenes científicos desde el lanzamiento de ChatGPT, y en algunos campos y países la proporción es incluso mayor. Investigadores de la Universidad de Tubinga y la Universidad Northwestern estudiaron los cambios lingüísticos en 14 millones de resúmenes científicos entre 2010 y 2024. Descubrieron que ChatGPT y generadores de texto de IA similares conducían a un aumento significativo en el vocabulario de ciertos estilos. Los investigadores identificaron por primera vez palabras que aparecieron con mucha más frecuencia en 2024 que en años anteriores. Estas palabras incluyen muchos de los verbos y adjetivos típicos del estilo de escritura de ChatGPT, como "profundizar", "complejo", "mostrar" y "destacar". Basándose en estas palabras clave, los investigadores estiman que para 2024, los generadores de texto de IA influirán en al menos el 10% de todos los resúmenes de PubMed. En algunos casos, este impacto supera incluso el impacto de palabras como “Covid”, “pandemia” o “Ébola” en sus períodos de tiempo. Los investigadores encontraron que aproximadamente el 15% de los resúmenes en los subgrupos de PubMed en países como China y Corea del Sur se generaron utilizando ChatGPT, en comparación con solo el 3% en el Reino Unido. Sin embargo, esto no significa necesariamente que los autores del Reino Unido utilicen menos ChatGPT. De hecho, según los investigadores, el uso real de generadores de texto de IA puede ser mucho mayor. Muchos investigadores editan el texto generado por IA para eliminar las palabras típicas de los logotipos. Los hablantes nativos pueden tener una ventaja aquí porque es más probable que noten este tipo de frases. Esto dificulta determinar la verdadera proporción de resúmenes afectados por la IA. Dentro de un rango mensurable, el uso de la IA es particularmente alto en las revistas, como aproximadamente el 17% en las revistas Frontiers y MDPI, y el 20% en las revistas de TI. Entre las revistas de TI, la proporción de autores chinos es la más alta, alcanzando el 35%. Para los autores científicos, la IA puede ayudar a que los artículos sean más legibles. El autor del estudio, Dmitry Kobak, dijo que la IA generativa diseñada específicamente para el resumen no es necesariamente el problema. Sin embargo, los generadores de texto de IA también pueden fabricar hechos, reforzar sesgos o incluso cometer plagio, y también pueden reducir la diversidad y originalidad de los textos científicos. Parece algo irónico que el modelo científico de lenguaje de código abierto "Galactica" lanzado por Meta Company poco antes del lanzamiento de ChatGPT fuera severamente criticado por algunas personas en la comunidad científica, lo que obligó a Meta a desconectarlo. Obviamente, esto no ha impedido que la IA generativa entre en la escritura científica, pero puede haber impedido la introducción de un sistema específicamente optimizado para esta tarea. Aspectos destacados: un análisis de los resúmenes de PubMed encontró que desde el lanzamiento de ChatGPT, al menos el 10% de los resúmenes científicos se han visto afectados por el generador de texto de IA. En el subgrupo PubMed en países como China y Corea del Sur, aproximadamente el 15% de los resúmenes se generaron utilizando ChatGPT, en comparación con solo el 3% en el Reino Unido. Los investigadores piden una reevaluación de las directrices para el uso de generadores de texto de IA en la ciencia, ya que los generadores de texto de IA pueden fabricar hechos, reforzar sesgos e incluso cometer plagio.
Los resultados de este estudio nos advierten que la aplicación de la IA en la redacción científica debe tratarse con cautela y que es necesario formular normas y directrices éticas más estrictas para garantizar la integridad académica y la confiabilidad de la investigación. Las investigaciones futuras deberían explorar más a fondo cómo identificar y evitar mejor los riesgos que conlleva el texto generado por IA y equilibrar la conveniencia y los posibles efectos negativos de la escritura asistida por IA.