Recentemente, uma análise baseada em 14 milhões de resumos do PubMed atraiu a atenção. O estudo revelou o impacto significativo dos geradores de texto de IA, especialmente o ChatGPT, na redação de documentos científicos. Ao analisar as mudanças no estilo de linguagem, os pesquisadores descobriram o vocabulário característico do texto gerado pela IA e estimaram a proporção de resumos afetados pela IA. Este estudo não só fornece dados quantitativos, mas também explora os prós e os contras da IA na escrita científica, bem como as diferenças entre diferentes países e revistas, desencadeando novas discussões sobre as normas da escrita científica e a ética da IA.
Uma análise de 14 milhões de resumos do PubMed mostra que os geradores de texto de IA influenciaram pelo menos 10% dos resumos científicos desde o lançamento do ChatGPT, e em alguns campos e países a proporção é ainda maior. Pesquisadores da Universidade de Tübingen e da Universidade Northwestern estudaram mudanças linguísticas em 14 milhões de resumos científicos entre 2010 e 2024. Eles descobriram que o ChatGPT e geradores de texto de IA semelhantes levaram a um aumento significativo no vocabulário de certos estilos. Os pesquisadores identificaram pela primeira vez palavras que apareceram com muito mais frequência em 2024 do que nos anos anteriores. Essas palavras incluem muitos dos verbos e adjetivos típicos do estilo de escrita do ChatGPT, como "cavar fundo", "complexo", "exibir" e "destacar-se". Com base nessas palavras características, os pesquisadores estimam que, até 2024, os geradores de texto de IA influenciarão pelo menos 10% de todos os resumos do PubMed. Em alguns casos, este impacto excede até mesmo o impacto de palavras como “Covid”, “pandemia” ou “Ebola” nos seus períodos de tempo. Os pesquisadores descobriram que aproximadamente 15% dos resumos nos subgrupos do PubMed em países como China e Coreia do Sul foram gerados usando ChatGPT, em comparação com apenas 3% no Reino Unido. No entanto, isso não significa necessariamente que os autores do Reino Unido usem menos o ChatGPT. Na verdade, segundo os pesquisadores, o uso real de geradores de texto de IA pode ser muito maior. Muitos pesquisadores editam textos gerados por IA para remover palavras típicas de logotipos. Os falantes nativos podem ter uma vantagem aqui porque são mais propensos a perceber essas frases. Isto torna difícil determinar a verdadeira proporção de resumos afetados pela IA. Dentro de uma faixa mensurável, o uso de IA é particularmente alto em periódicos, como aproximadamente 17% em periódicos Frontiers e MDPI e 20% em periódicos de TI. Entre as revistas de TI, a proporção de autores chineses é a mais elevada, chegando a 35%. Para autores científicos, a IA pode ajudar a tornar os artigos mais legíveis. O autor do estudo, Dmitry Kobak, disse que a IA generativa projetada especificamente para resumo não é necessariamente o problema. No entanto, os geradores de texto de IA também podem fabricar factos, reforçar preconceitos ou mesmo cometer plágio, e também podem reduzir a diversidade e originalidade dos textos científicos. Parece um tanto irônico que o modelo científico de linguagem de código aberto "Galactica", lançado pela Meta Company pouco antes do lançamento do ChatGPT, tenha sido severamente criticado por algumas pessoas da comunidade científica, forçando a Meta a colocá-lo offline. Obviamente, isso não impediu a IA generativa de entrar na escrita científica, mas pode ter impedido a introdução de um sistema especificamente otimizado para esta tarefa. Destaques: Uma análise dos resumos do PubMed descobriu que desde o lançamento do ChatGPT, pelo menos 10% dos resumos científicos foram afetados pelo gerador de texto de IA. No subgrupo PubMed em países como China e Coreia do Sul, aproximadamente 15% dos resumos foram gerados usando ChatGPT, em comparação com apenas 3% no Reino Unido. Os investigadores apelam a uma reavaliação das directrizes para a utilização de geradores de texto de IA na ciência, uma vez que os geradores de texto de IA podem fabricar factos, reforçar preconceitos e até cometer plágio.
Os resultados deste estudo alertam-nos que a aplicação da IA na escrita científica precisa de ser tratada com cautela, e que normas e directrizes éticas mais rigorosas precisam de ser formuladas para garantir a integridade académica e a fiabilidade da investigação. A investigação futura deverá explorar ainda mais a forma de identificar e evitar melhor os riscos trazidos pelo texto gerado pela IA e equilibrar a conveniência e os potenciais efeitos negativos da escrita assistida pela IA.