Nos últimos anos, a tecnologia de inteligência artificial desenvolveu-se rapidamente e a sua aplicação penetrou em todos os aspectos da investigação académica. Um estudo recente revelou o impacto da IA na revisão por pares, despertando ampla atenção acadêmica na escrita assistida por IA e no controle de qualidade científica. A investigação descobriu que nas principais conferências de IA, o conteúdo gerado por modelos como o ChatGPT representa até 17%. Isto não só levanta a questão da integridade académica, mas também desafia o mecanismo tradicional de revisão por pares. Abaixo está uma explicação detalhada das descobertas do estudo.
Uma pesquisa recente descobriu que nas principais conferências de IA em 2023-2024, o conteúdo gerado por modelos como o ChatGPT representou até 17% das avaliações por pares. O conteúdo da revisão aparece principalmente perto do prazo e carece de citações acadêmicas e participação do revisor. A pesquisa levanta questões, como a divulgação de IA para auxiliar na revisão de manuscritos. O crescimento da inteligência artificial tem implicações para o controlo de qualidade científica, exigindo uma reconsideração dos méritos do trabalho com conhecimento híbrido.
Os resultados deste estudo alertam-nos que precisamos de reexaminar o papel da inteligência artificial na investigação académica e desenvolver normas e padrões correspondentes para garantir a qualidade e integridade da investigação académica. No futuro, a comunidade académica precisa de se adaptar ativamente ao desenvolvimento da tecnologia de IA, explorar a melhor forma de utilizar as ferramentas de IA, evitando ao mesmo tempo os seus potenciais impactos negativos e, em última análise, promover o desenvolvimento saudável da investigação académica. Isto exige que académicos, criadores de tecnologia e decisores políticos trabalhem em conjunto para construir um ecossistema académico mais justo e transparente.