コロンビアニュースレビューのデジタルニュースセンターの最新の研究は、衝撃的な現象を明らかにしています。AI検索ツールの人気は、質問に答える際に誤った情報または誤解を招く情報を提供します。この発見は心配するだけでなく、ニュースレポートに対する国民の信頼を直接弱め、出版社を交通と収益の2倍の損失にさらすこともあります。

研究者は、ChatGpt、Prplexity、Gemini、Grokを含む8つの生成AIチャットボットをテストし、200の最新ニュース記事からの抜粋を特定するように依頼しました。結果は、答えの60%以上が間違っていることを示しています。これらのチャットボットは、多くの場合、タイトルを作成し、記事を引用したり、不正なコンテンツを引用したりしないでください。パブリッシャーを正しく指摘していても、リンクはしばしば無効なURL、再版バージョン、またはコンテンツに関連していないページを示しています。
残念なことに、これらのチャットボットはめったに不確実性を表現することはありませんが、代わりに不適切な自信を持って間違った答えを提供します。たとえば、ChatGPTは200のクエリで134のエラーメッセージを提供しますが、15回だけ疑いを表明しています。 Perplexity ProとGrok3の有料バージョンでさえも満足のいくものではなく、間違った回答の数は高くなりますが、それぞれ月額20ドルと40ドルの価格です。
コンテンツの引用に関しては、複数のチャットボットは出版社の制限的な試みに従うことができず、5つのチャットボットは、広く受け入れられているボット除外プロトコルの標準さえ無視しました。困惑は、出版社がクローラーを制限したときに、ナショナルジオグラフィックからの記事を正しく引用しました。一方、ChatGptは、不正なYahoo Newsを通じてUSA Todayのペイウォールコンテンツの記事を唱えました。
さらに、多くのチャットボットは、たとえAI企業との承認契約に達したとしても、元のソースではなく、AOLやYahooなどのプラットフォームに関する記事を転載したユーザーに指示します。たとえば、Perplexity ProはTexas Forumの転載版を引用しましたが、適切な署名を与えることができませんでした。 GROK3とGeminiはしばしばURLを発明し、GROK3の200回の回答のうち154がエラーページにリンクしています。
この研究は、報道機関に直面している危機の成長を強調しています。ますます多くのアメリカ人が情報源としてAIツールを使用していますが、Googleとは異なり、チャットボットはウェブサイトにトラフィックを向けるのではなく、リンクすることなくコンテンツを要約し、出版社が広告収益を失います。 News Media AllianceのDanielle Coffeyは、クローラーを制御することなく、出版社は「貴重なコンテンツを作るか、ジャーナリストの給与を支払う」ことができないと警告しました。
OpenaiとMicrosoftに連絡した後、研究チームはアプローチを擁護しましたが、特定の調査結果には対応しませんでした。 Openaiは、「出版社の好みを尊重している」と述べ、ユーザーが「質の高いコンテンツを発見する」のに役立ちますが、Microsoftは「robots.txt」プロトコルに従うと主張しています。研究者は、間違った引用慣行が個々のツールではなく、体系的な問題であると強調しています。彼らは、AI企業に、出版社の権利の透明性、正確性、尊重を改善するよう求めました。
キーポイント:
この調査では、AIチャットボットの回答エラー率が60%を超えており、ニュースの信頼性に深刻な影響を与えていることがわかりました。
いくつかのチャットボットは、パブリッシャーの制限を無視し、不正なコンテンツと間違ったリンクを引用しています。
ニュース組織は交通と収益の二重危機に直面しており、AIツールは徐々に従来の検索エンジンに置き換えられています。