Site Web officiel www.binance.com/ZH-CN :Entrez le site officiel ☜☜
Application: ☞☞Official App Download☜☜
Les dernières recherches du Center for Digital News de Columbia News Review révèlent un phénomène choquant: la popularité des outils de recherche d'IA fournit des informations incorrectes ou trompeuses lors de la réponse aux questions. Cette découverte est non seulement inquiétante, mais affaiblit également directement la confiance du public dans les reportages, tout en exposant également les éditeurs à des doubles pertes de trafic et de revenus.

Les chercheurs ont testé huit chatbots d'IA génératifs, notamment Chatgpt, Perplexity, Gemini et Grok, leur demandant d'identifier des extraits de 200 derniers articles de presse. Les résultats montrent que plus de 60% des réponses sont erronées. Ces chatbots fabriquent souvent des titres, ne citent pas des articles ou ne citent pas du contenu non autorisé. Même s'ils soulignent correctement l'éditeur, les liens indiquent souvent des URL non valides, des versions réimprimées ou des pages qui ne sont pas liées au contenu.
De façon décevante, ces chatbots expriment rarement une incertitude, mais fournissent plutôt de mauvaises réponses avec une confiance inappropriée. Par exemple, Chatgpt fournit 134 messages d'erreur dans 200 requêtes, mais n'a exprimé des soupçons qu'en 15 fois. Même les versions payantes de Perplexity Pro et Grok3 ne sont pas satisfaisantes, le nombre de mauvaises réponses supérieures, bien qu'ils soient au prix de 20 $ et 40 $ par mois, respectivement.
En termes de citations de contenu, plusieurs chatbots n'ont pas réussi à suivre les tentatives restrictives des éditeurs, et cinq chatbots ont même ignoré la norme largement acceptée des protocoles d'exclusion de robots. La perplexité a autrefois correctement cité des articles de National Geographic lorsque les éditeurs ont limité leurs robots. Pendant ce temps, Chatgpt a récité USA Today Status of Paywall Contenu via Yahoo News non autorisé.
En outre, de nombreux chatbots dirigent les utilisateurs vers des articles réimprimés sur des plateformes telles que AOL ou Yahoo, plutôt que sur la source d'origine, même si un accord d'autorisation a été conclu avec les sociétés d'IA. Par exemple, Perplexity Pro a cité une version réimprimée du Forum du Texas mais n'a pas donné la signature due. Grok3 et Gemini inventent souvent les URL, et 154 des 200 réponses de Grok3 vers la page d'erreur.
Cette étude met en évidence la crise croissante confrontée aux organisations de presse. De plus en plus d'Américains utilisent des outils d'IA comme source d'informations, mais contrairement à Google, les chatbots ne dirigent pas le trafic vers les sites Web, mais résument plutôt le contenu sans se lier, ce qui fait que les éditeurs perdent des revenus publicitaires. Danielle Coffey de la News Media Alliance a averti que sans contrôle sur les Crawlers, les éditeurs ne seraient pas en mesure de «faire un contenu précieux ou de payer les salaires des journalistes».
Après avoir contacté Openai et Microsoft, l'équipe de recherche a défendu son approche mais n'a pas répondu à des résultats de recherche spécifiques. OpenAI a déclaré qu'il "respecte les préférences des éditeurs" et aide les utilisateurs à "découvrir le contenu de qualité", tandis que Microsoft affirme qu'il suit le protocole "robots.txt". Les chercheurs soulignent que les mauvaises pratiques de citation sont des problèmes systématiques, pas des outils individuels. Ils ont appelé les sociétés d'IA à améliorer la transparence, l'exactitude et le respect des droits des éditeurs.
Points clés:
L'étude a révélé que le taux d'erreur de réponse des chatbots d'IA dépasse 60%, affectant sérieusement la crédibilité des nouvelles.
Plusieurs chatbots ignorent les restrictions des éditeurs et citent le contenu non autorisé et les mauvais liens.
Les organisations de presse sont confrontées à une double crise de trafic et de revenus, et les outils d'IA remplacent progressivement les moteurs de recherche traditionnels.