Recientemente, una nueva investigación sobre la plataforma X (anteriormente Twitter) ha atraído la atención. Los investigadores del Bochum, el Instituto Gesis Leibniz y el Centro CISPA Helmholtz analizaron casi 15 millones de cuentas X para explorar las características y el impacto potencial de las cuentas de avatar generadas por IA. Los resultados de la investigación muestran que la proporción de cuentas que usan IA para generar avatares es extremadamente baja, y estas cuentas muestran patrones de comportamiento únicos, lo que plantea preocupaciones sobre la propagación de información falsa.
Un estudio reciente realizado por Bochum, Gesis Leibniz Institute y CISPA Helmholtz Center, reveló recientemente que las cuentas de X (anteriormente Twitter) que usan IA para generar avatares representan solo el 0.052% de todas las cuentas. Los investigadores analizaron casi 15 millones de cuentas X y descubrieron que 7723 de ellas usaban avatares generados por IA.

Notas de fuente de imagen: La imagen es generada por AI y el proveedor de servicios autorizado de imagen MidJourney
Estas cuentas muestran características obvias: menos seguidores, no se siguieron muchas cuentas y se crearon más de la mitad en 2023, y algunas cuentas incluso se crearon en lotes en unas pocas horas. Esto muestra claramente que estas cuentas no son usuarios reales, señaló el autor principal del estudio, Jonas Ricker. Después de nueve meses de observación, la plataforma X ha cerrado más de la mitad de estas cuentas.
Durante el análisis manual de contenido de 1,000 cuentas que utilizan avatares de IA, los investigadores encontraron que los temas de contenido de estas cuentas se centraron principalmente en aspectos políticos, especialmente temas relacionados con Trump, la vacuna Covid-19 y la guerra ucraniana. Además, la lotería y los temas financieros como las criptomonedas también aparecen con frecuencia. Los investigadores especularon que estas cuentas podrían haberse creado específicamente para difundir información falsa y propaganda política, porque se crearon grandes cantidades de cuentas y los mismos metadatos sugieren que podrían pertenecer a una red organizada.
Aunque este estudio no exploró la propagación de estas cuentas utilizando avatares de IA, su promedio de menos seguidores y menos seguidores indican influencia limitada. Esto es consistente con un estudio de OpenAI que encontró que las cuentas de las redes sociales que difunden la IA para generar información de propaganda política recibieron pocas respuestas y, por lo tanto, estas cuentas son menos efectivas. El equipo de investigación planea expandir la automatización del reconocimiento de avatar falso de IA en el análisis futuro e incorporar modelos actualizados para comprender mejor el impacto de esta tecnología en las plataformas de redes sociales.
Puntos clave:
La investigación muestra que solo el 0.052% de las cuentas en la plataforma X usan IA para generar avatares, y la mayoría de ellas son cuentas recién creadas.
Los temas de contenido de la cuenta que utilizan avatares de IA involucran principalmente temas políticos, covid-19 y financieros.
La creación de lotes de estas cuentas y metadatos similares implican que la información falsa puede estar extendiéndose en la red de la organización.
Este estudio proporciona una referencia importante para identificar y responder a la información falsa en las redes sociales, y también sugiere que debemos continuar prestando atención a los riesgos potenciales de la tecnología de IA en la difusión de información y explorar estrategias de afrontamiento más efectivas. La investigación futura explorará más a fondo el mecanismo de comunicación y el impacto de los avatares generados por IA en las redes sociales para mantener mejor el desarrollo saludable del ciberespacio.