Récemment, une nouvelle recherche sur la plate-forme X (anciennement Twitter) a attiré l'attention. Des chercheurs de Bochum, du Gesis Leibniz Institute et du Cispa Helmholtz Center ont analysé près de 15 millions de comptes X pour explorer les caractéristiques et l'impact potentiel des comptes d'avatar générés par l'IA. Les résultats de la recherche montrent que la proportion de comptes utilisant l'IA pour générer des avatars est extrêmement faible, et ces comptes montrent des modèles de comportement uniques, ce qui soulève des préoccupations concernant la propagation de fausses informations.
Une étude récente menée par Bochum, Gesis Leibniz Institute et Cispa Helmholtz Center, a récemment révélé que les comptes X (anciennement Twitter) qui utilisent l'IA pour générer des comptes Avatars pour seulement 0,052% de tous les comptes. Les chercheurs ont analysé près de 15 millions de comptes X et ont constaté que 7723 d'entre eux utilisaient des avatars générés par l'IA.

Remarques de la source d'image: L'image est générée par l'IA, et le fournisseur de services autorisé l'image MidJourney
Ces comptes montrent des caractéristiques évidentes: moins de followers, peu de comptes ont suivi et plus de la moitié ont été créés en 2023, et certains comptes ont même été créés par lots en quelques heures. Cela montre clairement que ces comptes ne sont pas des utilisateurs réels, a noté l'auteur principal de l'étude Jonas Ricker. Après neuf mois d'observation, la plate-forme X a fermé plus de la moitié de ces comptes.
Au cours de l'analyse manuelle de contenu de 1 000 comptes à l'aide des avatars de l'IA, les chercheurs ont constaté que les thèmes de contenu de ces comptes se concentraient principalement sur les aspects politiques, en particulier les questions liées à Trump, le vaccin Covid-19 et la guerre ukrainienne. De plus, les sujets de loterie et financiers tels que les crypto-monnaies apparaissent également fréquemment. Les chercheurs ont émis l'hypothèse que ces comptes auraient pu être créés spécifiquement pour diffuser de fausses informations et une propagande politique, car de grandes quantités de comptes ont été créées et que les mêmes métadonnées suggèrent qu'ils pourraient appartenir à un réseau organisé.
Bien que cette étude n'ait pas exploré la propagation de ces comptes en utilisant des avatars d'IA, leurs adeptes moyens moins et moins de followers indiquent une influence limitée. Ceci est conforme à une étude d'OpenAI qui a révélé que les comptes de médias sociaux qui répartissent l'IA pour générer des informations de propagande politique ont reçu peu de réponses, et donc ces comptes sont moins efficaces. L'équipe de recherche prévoit d'élargir l'automatisation de la fausse reconnaissance de l'IA de l'IA dans une analyse future et d'intégrer des modèles mis à jour pour mieux comprendre l'impact de cette technologie sur les plateformes de médias sociaux.
Points clés:
La recherche montre que seulement 0,052% des comptes sur la plate-forme X utilisent l'IA pour générer des avatars, et la plupart d'entre eux sont des comptes nouvellement créés.
Les sujets de contenu des comptes utilisant des avatars IA impliquent principalement des sujets politiques, Covid-19 et financiers.
La création par lots de ces comptes et des métadonnées similaires implique que les fausses informations peuvent se répandre sur le réseau de l'organisation.
Cette étude fournit une référence importante pour identifier et répondre à de fausses informations sur les médias sociaux, et suggère également que nous devons continuer à prêter attention aux risques potentiels de la technologie de l'IA dans la diffusion de l'information et à explorer des stratégies d'adaptation plus efficaces. Les recherches futures exploreront davantage le mécanisme de communication et l'impact des avatars générés par l'IA dans les médias sociaux pour mieux maintenir le développement sain du cyberespace.