Recentemente, uma nova pesquisa sobre a plataforma X (anteriormente Twitter) atraiu a atenção. Pesquisadores do Bochum, Gesis Leibniz Institute e Cispa Helmholtz Center analisaram quase 15 milhões de contas para explorar as características e o impacto potencial das contas de avatar geradas pela IA. Os resultados da pesquisa mostram que a proporção de contas usando IA para gerar avatares é extremamente baixa, e essas contas mostram padrões de comportamento exclusivos, o que levanta preocupações sobre a disseminação de informações falsas.
Um estudo recente realizado pelo Bochum, o Gesis Leibniz Institute e o Cispa Helmholtz Center, revelou recentemente que as contas X (anteriormente Twitter) que usam a IA para gerar avatares representam apenas 0,052% de todas as contas. Os pesquisadores analisaram quase 15 milhões de contas X e descobriram que 7723 deles usavam avatares gerados pela IA.

Notas da fonte da imagem: A imagem é gerada pela IA e a imagem autorizada provedor de serviços Midjourney
Essas contas mostram características óbvias: menos seguidores, poucas contas seguidas e mais da metade foram criadas em 2023, e algumas contas foram criadas em lotes dentro de algumas horas. Isso mostra claramente que essas contas não são usuários reais, observou o principal autor do estudo, Jonas Ricker. Após nove meses de observação, a plataforma X fechou mais da metade dessas contas.
Durante a análise de conteúdo manual de 1.000 contas usando avatares de IA, os pesquisadores descobriram que os temas de conteúdo dessas contas se concentraram principalmente em aspectos políticos, especialmente questões relacionadas ao Trump, a vacina CoVID-19 e a guerra ucraniana. Além disso, tópicos financeiros e de loteria, como criptomoedas, também aparecem com frequência. Os pesquisadores especularam que essas contas poderiam ter sido criadas especificamente para espalhar informações falsas e propaganda política, porque grandes quantidades de contas foram criadas e os mesmos metadados sugerem que eles podem pertencer a uma rede organizada.
Embora este estudo não tenha explorado a propagação dessas contas usando avatares de IA, seus seguidores em média e menos seguidores indicam influência limitada. Isso é consistente com um estudo do OpenAI que constatou que as contas de mídia social que espalham a IA para gerar informações de propaganda política receberam poucas respostas e, portanto, essas contas são menos eficazes. A equipe de pesquisa planeja expandir a automação do reconhecimento falso de avatar de IA em análises futuras e incorporar modelos atualizados para entender melhor o impacto dessa tecnologia nas plataformas de mídia social.
Pontos -chave:
Pesquisas mostram que apenas 0,052% das contas na plataforma X usam IA para gerar avatares, e a maioria delas são contas recém -criadas.
Os tópicos de conteúdo da conta usando avatares de IA envolvem principalmente tópicos políticos, covid-19 e financeiros.
A criação em lote dessas contas e metadados semelhantes implicam que informações falsas podem estar se espalhando na rede da organização.
Este estudo fornece uma referência importante para identificar e responder a informações falsas nas mídias sociais e também sugere que precisamos continuar prestando atenção aos riscos potenciais da tecnologia de IA na disseminação de informações e explorar estratégias de enfrentamento mais eficazes. Pesquisas futuras explorarão ainda mais o mecanismo de comunicação e o impacto dos avatares gerados pela IA nas mídias sociais para melhor manter o desenvolvimento saudável do ciberespaço.