Недавно новое исследование на платформе X (ранее Twitter) привлекло внимание. Исследователи из Bochum, Gesis Leibniz Institute и Cispa Helmholtz Center проанализировали почти 15 миллионов счетов x для изучения характеристик и потенциального воздействия сгенерированных AI-счетов. Результаты исследований показывают, что доля счетов с использованием ИИ для генерации аватаров чрезвычайно низкая, и эти учетные записи показывают уникальные модели поведения, что вызывает обеспокоенность по поводу распространения ложной информации.
Недавнее исследование, проведенное Bochum, Gesese Leibniz Institute и Cispa Helmholtz Center, недавно показало, что X (ранее Twitter), которые используют AI для создания аватаров, составляют только 0,052% всех счетов. Исследователи проанализировали почти 15 миллионов счетов X и обнаружили, что 7723 из них использовали сгенерированные AI-аватары.

Примечания источника изображения: изображение генерируется ИИ, а изображение авторизованное поставщик услуг Midjourney
Эти аккаунты показывают очевидные характеристики: в 2023 году было создано меньше последователей, не так много учетных записей, и более половины были созданы в 2023 году, и некоторые учетные записи были созданы даже партиями в течение нескольких часов. Это ясно показывает, что эти учетные записи не являются реальными пользователями, отметил ведущего автора исследования Джонас Рикер. После девяти месяцев наблюдения платформа X закрыла более половины этих счетов.
Во время ручного анализа контента 1000 счетов с использованием AI-аватаров исследователи обнаружили, что содержание этих счетов сосредоточено главным образом на политических аспектах, особенно в вопросах, связанных с Трампом, вакциной Covid-19 и украинской войной. Кроме того, лотереи и финансовые темы, такие как криптовалюты, также часто появляются. Исследователи предположили, что эти счета могли быть созданы специально для распространения ложной информации и политической пропаганды, потому что были созданы большие объемы счетов, и те же метаданные предполагают, что они могут принадлежать к организованной сети.
Хотя в этом исследовании не было изучено распространение этих счетов с использованием AI -аватаров, их среднее меньшее количество последователей и меньше последователей указывают на ограниченное влияние. Это согласуется с исследованием OpenAI, которое показало, что учетные записи в социальных сетях, которые распространяют ИИ для получения информации о политической пропаганде, получили несколько ответов, и поэтому эти счета менее эффективны. Исследовательская группа планирует расширить автоматизацию поддельного признания аватаров в будущем анализе и включить обновленные модели, чтобы лучше понять влияние этой технологии на платформы социальных сетей.
Ключевые моменты:
Исследования показывают, что только 0,052% счетов на платформе X используют ИИ для генерации аватаров, и большинство из них являются вновь созданными учетными записями.
Темы контента счета с использованием AI-аватаров в основном связаны с политическими, Covid-19 и финансовыми темами.
Создание партии этих счетов и аналогичных метаданных подразумевает, что ложная информация может распространяться в сети организации.
Это исследование дает важную ссылку на выявление и реагирование на ложную информацию о социальных сетях, а также предполагает, что нам необходимо продолжать обращать внимание на потенциальные риски технологии искусственного интеллекта в распространении информации и изучать более эффективные стратегии преодоления. Будущие исследования будут дополнительно изучить механизм коммуникации и влияние сгенерированных AI-аватаров в социальных сетях, чтобы лучше поддерживать здоровое развитие киберпространства.