A pesquisa mais recente do Center for Digital News at Columbia News Review revela um fenômeno chocante: a popularidade das ferramentas de pesquisa de IA fornece informações incorretas ou enganosas ao responder perguntas. Essa descoberta não é apenas preocupante, mas também enfraquece diretamente a confiança do público em reportagens, além de expor os editores a duplas perdas no tráfego e receita.

Os pesquisadores testaram oito chatbots generativos de IA, incluindo ChatGPT, Perplexity, Gêmeos e Grok, pedindo que identificassem trechos de 200 artigos de notícias mais recentes. Os resultados mostram que mais de 60% das respostas estão erradas. Esses chatbots geralmente fabricam títulos, não citam artigos ou citam conteúdo não autorizado. Mesmo que eles apontem corretamente o editor, os links geralmente apontam para URLs inválidos, versões reimpressas ou páginas que não estão relacionadas ao conteúdo.
Decepcionantemente, esses chatbots raramente expressam incerteza, mas fornecem respostas erradas com confiança inadequada. Por exemplo, o ChatGPT fornece 134 mensagens de erro em 200 consultas, mas expressou suspeita apenas em 15 vezes. Mesmo as versões pagas do Perplexity Pro e Grok3 não são satisfatórias, com o número de respostas erradas mais altas, embora tenham preço de US $ 20 e US $ 40 por mês, respectivamente.
Em termos de citações de conteúdo, vários chatbots não seguiram as tentativas restritivas dos editores e cinco chatbots até ignoraram o padrão amplamente aceito de protocolos de exclusão de bot. A perplexidade já citou corretamente os artigos da National Geographic quando os editores restringiram seus rastreadores. Enquanto isso, o ChatGpt recitou o USA Today Artigos de conteúdo do Paywall através do Yahoo News não autorizado.
Além disso, muitos chatbots direcionam os artigos reimpressos em plataformas como AOL ou Yahoo, em vez da fonte original, mesmo que um contrato de autorização tenha sido alcançado com empresas de IA. Por exemplo, o Perplexity Pro citou uma versão reimpressa do fórum do Texas, mas não conseguiu dar a due assinatura. Grok3 e Gemini geralmente inventam URLs e 154 do link de 200 respostas do Grok3 para a página de erro.
Este estudo destaca a crescente crise que enfrenta organizações de notícias. Mais e mais americanos estão usando as ferramentas de IA como fonte de informação, mas, diferentemente do Google, os chatbots não direcionam o tráfego para sites, mas resumem o conteúdo sem vincular de volta, fazendo com que os editores percam a receita da publicidade. Danielle Coffey, da Alliance da Mídia, alertou que, sem controle sobre os rastreadores, os editores não seriam capazes de "fazer conteúdo valioso ou pagar salários de jornalistas".
Depois de entrar em contato com o Openai e a Microsoft, a equipe de pesquisa defendeu sua abordagem, mas não respondeu a resultados específicos de pesquisas. O Openai disse que "respeita as preferências dos editores" e ajuda os usuários "a descobrir conteúdo de qualidade", enquanto a Microsoft afirma que segue o protocolo "robots.txt". Os pesquisadores enfatizam que as práticas de citação erradas são questões sistemáticas, não ferramentas individuais. Eles pediram às empresas de IA que melhorem a transparência, a precisão e o respeito pelos direitos dos editores.
Pontos -chave:
O estudo constatou que a taxa de erro de resposta dos chatbots da IA excede 60%, afetando seriamente a credibilidade das notícias.
Vários chatbots ignoram as restrições dos editores e citam conteúdo não autorizado e links errados.
As organizações de notícias estão enfrentando uma crise dupla de tráfego e receita, e as ferramentas de IA estão gradualmente substituindo os mecanismos de pesquisa tradicionais.