Site Web officiel www.binance.com/ZH-CN :Entrez le site officiel ☜☜
Application: ☞☞Official App Download☜☜
Une nouvelle tendance a récemment émergé par la plate-forme sociale d'Elon Musk X (anciennement Twitter), et certains utilisateurs ont commencé à utiliser Grok, un chatbot AI développé par la société d'intelligence artificielle de Musk XAI, pour la "vérification des faits". Cette pratique a soulevé des préoccupations parmi les vérifications des faits manuelles professionnelles qui croient que cela pourrait alimenter davantage la propagation de fausses informations.

Il est entendu que la plate-forme X a ouvert la fonction d'appeler directement Xai Grok pour poser des questions aux utilisateurs au début de ce mois, et les utilisateurs peuvent chercher des réponses à Grok sur différents sujets. Cette décision est similaire à la façon dont une autre entreprise, Perplexity, exploite un compte d'automatisation sur X pour fournir des services similaires.
Peu de temps après le lancement du compte Grok Automation de Xai sur la plate-forme X, les utilisateurs ont commencé à essayer de lui poser diverses questions. Surtout sur les marchés, y compris l'Inde, certains utilisateurs ont commencé à demander à Grok de "vérifier" des commentaires et de problèmes ciblant des opinions politiques spécifiques.
Cependant, les vérificateurs de faits humains sont préoccupés par de telles façons d'utiliser Grok ou tout autre assistant d'IA similaire à faire des "vérifications des faits" parce que ces robots peuvent construire des réponses de manière convaincante, même lors de la fourniture de fausses informations. Grok a diffusé de fausses nouvelles et tromper des informations dans le passé.
Dès août de l'année dernière, cinq secrétaires d'État américains ont exhorté Musk à apporter des ajustements clés à Grok, après que l'assistance ait diffusé des informations trompeuses sur les réseaux sociaux à la veille des élections américaines à l'époque. Non seulement cela, d'autres chatbots, y compris le chatpt d'Openai et les Gémeaux de Google, ont également généré des informations inexactes sur l'élection l'année dernière. Un autre chercheur anti-disinformation a découvert en 2023 que les chatbots d'IA, y compris le chatppt, peuvent facilement générer du texte trompeur et convaincant.
"Les assistants de l'IA comme Grok sont très bons pour utiliser le langage naturel et donnent des réponses qui ressemblent à ce que les vraies personnes disent. De cette façon, même si les produits d'IA sont potentiellement mauvais, ils peuvent donner un sens de la nature et de la réalité. C'est là que réside le danger potentiel."
Un utilisateur X avait demandé à Grok de "vérifier les faits" d'un autre utilisateur. Contrairement aux assistants de l'IA, les vérificateurs de faits humains utilisent plusieurs sources de confiance pour vérifier les informations. Ils assumeront également l'entière responsabilité de leurs conclusions, de leurs noms et de l'agence pour assurer la crédibilité.
Pratik Sinha, co-fondateur du site Web de vérification des faits à but non lucratif Alt News, a souligné que bien que Grok semble donner des réponses convaincantes pour le moment, sa capacité dépend entièrement de la qualité des données qu'elle acquiert. Il a souligné: "Qui décide quelles données elles obtiennent? L'intervention du gouvernement et d'autres problèmes suivront. Les choses qui manquent de transparence sont tenues de causer des dommages, car tout ce qui manque de transparence peut être façonné à volonté ... il peut être abusé - utilisé pour diffuser de fausses informations."
Dans une réponse publiée plus tôt cette semaine, le compte officiel de Grok sur X a admis qu'il avait été "peut-être abusé - utilisé pour diffuser de fausses informations et envahir la confidentialité". Cependant, le compte automatisé ne montre aucun avertissement à l'utilisateur lors de la réponse, et si sa réponse est causée par "l'illusion", l'utilisateur peut être induit en erreur en conséquence, ce qui est également un inconvénient potentiel de l'IA. "Il peut fabriquer des informations pour fournir une réponse", a déclaré Anushuka Jain, chercheuse du Digital Futures Lab, une institution de recherche interdisciplinaire à Goa.
De plus, il y a des questions sur la mesure dans laquelle Grok utilise des publications sur la plate-forme X comme données de formation et les mesures de contrôle de la qualité qu'il utilise pour vérifier l'authenticité de ces publications. L'été dernier, la plate-forme X a apporté un changement qui semblait permettre à Grok d'utiliser les données publiques de X utilisateurs par défaut.
Un autre aspect inquiétant des assistants d'IA (comme Grok) diffusant publiquement les informations via les plateformes de médias sociaux est que d'autres sur la plate-forme peuvent toujours le croire, même si certains utilisateurs sont clairement conscients que les informations obtenues auprès d'assistants d'IA peuvent être trompeuses ou incomplètement correctes. Cela peut causer de graves dommages sociaux. Auparavant en Inde, de fausses informations réparties via WhatsApp ont conduit à une violence de masse, bien que ces incidents graves se soient produits avant une IA générative, ce qui rend désormais la production de contenu synthétique plus facile et plus réaliste.
"Si vous voyez beaucoup de réponses de Grok, vous pourriez penser que la plupart d'entre eux sont corrects, peut-être que c'est le cas, mais il y en a certainement mal. Quel est le rapport d'erreur?
Les entreprises d'IA, y compris XAI, améliorent leurs modèles d'IA pour communiquer plus comme les humains, mais elles ne sont toujours pas - et ne peuvent pas - rejouer les humains maintenant. Ces derniers mois, les entreprises technologiques ont exploré des moyens de réduire leur dépendance à l'égard des vérificateurs de faits humains. Des plates-formes telles que X et Meta ont commencé à essayer de faire du crowdsourcing des faits à travers les soi-disant «notes communautaires». Bien sûr, ces changements ont également causé des préoccupations parmi les vérificateurs de faits.
Sinha de Alt News est optimiste que les gens finiront par apprendre à faire la distinction entre la machine et les vérificateurs de faits artificiels et accorderont plus d'attention à la précision humaine. Les Hollande croient également: "Nous verrons éventuellement le swing pendule retourner dans la direction de prêter plus d'attention à la vérification des faits." Cependant, elle a noté qu'au cours de cette période, les vérificateurs de faits peuvent avoir plus de travail à faire en raison de la diffusion rapide des informations générées par l'IA. "Une grande partie de ce problème dépend de la question de savoir si vous vous souciez vraiment de ce qui est réel ou de la recherche de quelque chose qui sonne et qui se sent réel et qui n'est pas vraiment comme ça? Parce que ce que les assistants de l'IA peuvent offrir est ce dernier."
Ni X ni Xai n'ont répondu aux demandes de commentaires.
Points clés:
L'IA Robot Grok de Musk a été utilisé pour la vérification des faits sur la plate-forme X, causant des préoccupations parmi les inspecteurs manuels concernant la propagation des informations trompeuses. Les assistants d'IA tels que Grok peuvent générer des réponses crédibles mais inexactes et manquent de contrôle de qualité transparent et de sources de données. Les vérificateurs de faits manuels s'appuient sur des sources d'information de confiance et assument la responsabilité, et l'IA ne peut pas remplacer le rôle des humains dans la vérification de l'information.