哥倫比亞新聞評論的數字新聞中心最新研究揭示了一個令人震驚的現象:流行的AI搜索工具在回答問題時,超過60%的概率提供了不正確或誤導性的信息。這一發現不僅令人擔憂,還直接削弱了公眾對新聞報導的信任,同時使出版商面臨流量和收入的雙重損失。

研究人員對包括ChatGPT、Perplexity、Gemini和Grok在內的八款生成式AI聊天機器人進行了測試,要求它們識別來自200篇最新新聞文章的摘錄。結果顯示,超過60%的回答都是錯誤的。這些聊天機器人經常捏造標題、不引用文章或引用未經授權的內容。即使它們能正確指出發布者,鏈接也常常指向失效的URL、轉載版本或與內容無關的頁面。
令人失望的是,這些聊天機器人很少表達不確定性,反而以不當的自信提供錯誤的答案。例如,ChatGPT在200個查詢中提供了134條錯誤信息,但僅在15次中表示過懷疑。即便是付費版的Perplexity Pro和Grok3,其表現也不盡如人意,錯誤答案的數量更高,儘管它們的價格分別為每月20美元和40美元。
在內容引用方面,多個聊天機器人未能遵循出版商的限制嘗試,五款聊天機器人甚至忽視了機器人排除協議這一被廣泛接受的標準。 Perplexity就曾在出版商限制其爬蟲的情況下,正確引用國家地理的文章。與此同時,ChatGPT通過未授權的Yahoo新聞重新引用了收費牆內容的USA Today文章。
此外,很多聊天機器人將用戶引導至AOL或Yahoo等平台的轉載文章,而非原始來源,甚至在已經與AI公司達成授權協議的情況下。例如,Perplexity Pro引用了德克薩斯論壇的轉載版本,卻未能給出應有的署名。而Grok3和Gemini則常常發明URL,Grok3的200個回答中有154個鏈接至錯誤頁面。
這一研究突顯了新聞機構面臨的日益嚴重危機。越來越多的美國人將AI工具作為信息來源,但與Google不同,聊天機器人不會將流量引向網站,反而會在沒有鏈接回去的情況下總結內容,從而使出版商失去廣告收入。新聞媒體聯盟的丹妮爾・科菲警告稱,如果沒有對爬蟲的控制,出版商將無法有效“變現有價值的內容,或支付記者的薪水”。
研究小組在聯繫OpenAI和微軟後,他們雖然對自己的做法進行了辯護,但並未回應具體的研究發現。 OpenAI表示,它“尊重出版商的偏好”,並幫助用戶“發現優質內容”,而微軟則聲稱其遵循“robots.txt”協議。研究人員強調,錯誤的引用做法是系統性的問題,而非個別工具的現象。他們呼籲AI公司改善透明度、準確性以及對出版商權益的尊重。
劃重點:
研究發現,AI聊天機器人的回答錯誤率超過60%,嚴重影響了新聞的可信度。
多款聊天機器人無視出版商的限制,引用了未授權內容和錯誤鏈接。
新聞機構面臨流量和收入雙重危機,AI工具逐漸取代傳統搜索引擎。