Uma nova tendência surgiu recentemente pela plataforma social de Elon Musk, X (anteriormente Twitter), e alguns usuários começaram a usar a Grok, um chatbot de IA desenvolvido pela empresa de inteligência artificial da Musk, Xai, para "verificação de fatos". Essa prática levantou preocupações entre a verificação manual profissional de fatos que acreditam que isso pode alimentar ainda mais a disseminação de informações falsas.

Entende -se que a plataforma X abriu a função de ligar diretamente a Xai Grok para fazer perguntas aos usuários no início deste mês, e os usuários podem procurar respostas da GROK em tópicos diferentes. A mudança é semelhante a como outra empresa, Perplexity, opera uma conta de automação em X para fornecer serviços semelhantes.
Logo após a conta de automação GROK da Xai lançada na plataforma X, os usuários começaram a tentar fazer várias perguntas a ela. Especialmente nos mercados, incluindo a Índia, alguns usuários começaram a pedir a Grok que "verifique" comentários e questões direcionadas a visões políticas específicas.
No entanto, os verificadores de fatos humanos estão preocupados com essas maneiras de usar a GROK ou qualquer outro assistente de IA semelhante a fazer "verificação de fatos", porque esses robôs podem criar respostas de maneiras que parecem convincentes, mesmo ao fornecer informações falsas. Grok espalhou notícias falsas e informações enganosas no passado.
Já em agosto do ano passado, cinco secretários de estado dos EUA instaram Musk a fazer ajustes importantes para Grok, depois que o assessor espalhou informações enganosas sobre as redes sociais na véspera das eleições dos EUA na época. Além disso, outros chatbots, incluindo o ChatGPT do OpenAI e o Google do Google, também foram encontrados para gerar informações imprecisas sobre a eleição no ano passado. Outros pesquisadores antidisinformação descobriram em 2023 que a IA Chatbots, incluindo o ChatGPT, pode facilmente gerar texto enganoso e convincente.
"Assistentes de IA como Grok são muito bons em usar a linguagem natural e dão respostas que soam como as pessoas reais dizem. Dessa forma, mesmo que os produtos de IA sejam potencialmente ruins, eles podem dar uma sensação de natureza e realidade. É aí que reside o perigo em potencial".
Um usuário X pediu à GROK para "verificar" a declaração de outro usuário. Ao contrário dos assistentes de IA, os verificadores de fatos humanos usam várias fontes confiáveis para verificar as informações. Eles também assumirão total responsabilidade por suas descobertas, nome e anexará a agência para garantir credibilidade.
Pratik Sinha, co-fundador do site de verificação de fatos sem fins lucrativos Alt News, apontou que, embora Grok pareça dar respostas convincentes no momento, sua capacidade depende inteiramente da qualidade dos dados adquiridos. Ele enfatizou: "Quem decide quais dados recebe? Intervenção do governo e outras questões se seguirão. As coisas que carecem de transparência são obrigadas a causar danos, porque qualquer coisa que não tenha transparência pode ser moldada à vontade ... pode ser abusada - usada para espalhar informações falsas".
Em uma resposta divulgada no início desta semana, a conta oficial de Grok em X admitiu que foi "possivelmente abusada - usada para espalhar informações falsas e invadir a privacidade". No entanto, a conta automatizada não mostra nenhum aviso ao usuário ao dar a resposta e, se sua resposta for causada por "ilusão", o usuário poderá ser enganado como resultado, que também é uma desvantagem potencial da IA. "Pode fabricar informações para fornecer uma resposta", disse Anushuka Jain, pesquisador do Digital Futures Lab, uma instituição de pesquisa interdisciplinar em Goa.
Além disso, existem algumas perguntas sobre até que ponto a GROK usa postagens na plataforma X como dados de treinamento e quais medidas de controle de qualidade ele usa para verificar a autenticidade dessas postagens. No verão passado, a plataforma X fez uma alteração que parecia permitir que a GROK usasse dados públicos de usuários X por padrão.
Outro aspecto preocupante dos assistentes de IA (como a GROK) espalhando informações publicamente através de plataformas de mídia social é que outras pessoas da plataforma ainda podem acreditar, mesmo que alguns usuários estejam claramente cientes de que as informações obtidas dos assistentes de IA podem ser enganosas ou incompletamente corretas. Isso pode causar danos sociais graves. Anteriormente, na Índia, informações falsas espalhadas pelo WhatsApp levaram à violência em massa, embora esses incidentes graves tenham ocorrido antes da IA generativa, o que agora facilita a produção de conteúdo sintético mais fácil e realista.
"Se você vê muitas respostas de Grok, pode pensar que a maioria deles está correta, talvez seja, mas certamente há alguns estão errados. Qual é a proporção de erro? Isso não é uma proporção pequena. Alguns estudos mostram que os modelos de IA têm taxas de erro tão altas quanto 20% ... e, uma vez que dão errado, pode ter consequências graves da vida real".
As empresas de IA, incluindo a XAI, estão melhorando seus modelos de IA para se comunicar mais como seres humanos, mas ainda não são-e não podem-substituir os seres humanos agora. Nos últimos meses, as empresas de tecnologia estão explorando maneiras de reduzir sua dependência de verificadores de fatos humanos. Plataformas, incluindo X e Meta, começaram a tentar verificar o crowdsourcing de fatos através das chamadas "Notas da Comunidade". Obviamente, essas mudanças também causaram preocupações entre os verificadores de fatos.
O Sinha da Alt News está otimista de que as pessoas acabarão aprendendo a distinguir entre verificadores de máquinas e fatos artificiais e prestará mais atenção à precisão humana. A Holland também acredita: "Eventualmente, veremos o balanço do pêndulo retornar à direção de prestar mais atenção à verificação de fatos". No entanto, ela observou que, durante esse período, os verificadores de fatos podem ter mais trabalho a fazer devido à rápida disseminação de informações geradas pela IA. "Uma grande parte desse problema depende se você realmente se importa com o que é real ou apenas procurando algo que soa e pareça real e não é assim? Porque o que os assistentes de IA podem oferecer é o último".
Nem X nem Xai responderam aos pedidos de comentário.
Pontos -chave:
O robô AI de Musk Grok foi usado para verificação de fatos na plataforma X, causando preocupações entre os inspetores manuais sobre a disseminação de informações enganosas. Assistentes de IA, como Grok, podem gerar respostas críveis, mas imprecisas, e carecem de controle de qualidade transparente e fontes de dados. Os verificadores de fatos manuais contam com fontes de informação confiáveis e assumem responsabilidade, e a IA não pode substituir o papel dos seres humanos na verificação de informações.