近日,一项针对X平台(前Twitter)的最新研究引发关注。德国鲁尔大学波鸿、GESIS莱布尼茨研究所和CISPA亥姆霍兹中心的研究人员对近1500万个X账户进行了分析,以探究AI生成头像账户的特征和潜在影响。研究结果显示,使用AI生成头像的账户比例极低,且这些账户呈现出独特的行为模式,引发了对虚假信息传播的担忧。
近期,一项由德国鲁尔大学波鸿、GESIS 莱布尼茨研究所和 CISPA 亥姆霍兹中心联合进行的研究揭示,使用 AI 生成头像的 X(前 Twitter)账户仅占所有账户的0.052%。研究人员对近1500万个 X 账户进行了分析,发现其中7723个账户使用了 AI 生成的头像。

图源备注:图片由AI生成,图片授权服务商Midjourney
这些账户表现出明显的特征:关注者较少,所关注的账户也不多,且超过一半是在2023年创建的,有些账户甚至在几小时内批量创建。研究的主要作者乔纳斯・里克(Jonas Ricker)指出,这清楚地表明这些账户并非真实用户。经过九个月的观察,X 平台已关闭了超过一半的这些账户。
在对1000个使用 AI 头像的账户进行手动内容分析时,研究人员发现这些账户的内容主题主要集中在政治方面,尤其是与特朗普、COVID-19疫苗以及乌克兰战争相关的议题。此外,彩票和金融话题(如加密货币)也频繁出现。研究人员推测,这些账户可能是为了传播虚假信息和政治宣传而专门创建的,因为大量创建账户且拥有相同的元数据,表明它们可能属于一个有组织的网络。
虽然本研究没有探讨这些使用 AI 头像的账户的传播范围,但它们平均关注者较少、关注账户也较少的特点表明其影响力有限。这与 OpenAI 的一项研究相一致,该研究发现,传播 AI 生成政治宣传信息的社交媒体账户所获得的响应很少,因此这些账户的有效性较低。研究团队计划在未来的分析中扩大 AI 假头像识别的自动化,并纳入更新的模型,以更好地理解这一技术对社交媒体平台的影响。
划重点:
研究显示,X 平台上仅0.052% 的账户使用 AI 生成头像,且多为新创建账户。
使用 AI 头像的账户内容主题主要涉及政治、COVID-19和金融话题。
这些账户的批量创建及相似元数据暗示可能存在组织网络传播虚假信息。
这项研究为识别和应对社交媒体上的虚假信息提供了重要的参考,也提示我们需要持续关注AI技术在信息传播中的潜在风险,并探索更有效的应对策略。未来研究将进一步探索AI生成头像在社交媒体中的传播机制和影响,以更好地维护网络空间的健康发展。