近日,備受關注的AI搜尋工具Perplexity被爆出嚴重問題:其答案來源中包含大量來自不可靠部落格和LinkedIn貼文的低品質甚至錯誤的AI產生資訊。這項發現引發了人們對AI搜尋引擎資訊可靠性的擔憂,也對Perplexity的聲譽造成巨大衝擊。本文將詳細分析Perplexity面臨的困境,以及此事件對AI領域的影響。
最新報道揭露,備受矚目且備受資金支持的AI 搜尋工具Perplexity,正引用來自不可靠的部落格和LinkedIn 貼文的低品質甚至錯誤的AI 產生垃圾訊息。

GPTZero 是一家專門檢測AI 生成內容的新創公司,最近對Perplexity 進行了深入調查。該公司的CEO Edward Tian 在本月稍早發表的一篇部落格中指出,他注意到Perplexity 連結的來源中有「越來越多的是AI 自動生成的」。
隨後,他檢查了Perplexity 對這些資訊的AI 重複使用,並發現在某些情況下,Perplexity 甚至出現了從這些AI 生成的來源中抽取過時和不正確資訊的情況。換句話說,這是一個AI 驅動的錯誤訊息循環,其中AI 的錯誤和虛構訊息進入了Perplexity 的AI 生成答案。
舉例來說,對於「日本京都的文化節」 這個問題,Perplexity 給出了一個看似連貫的日本城市的文化景點清單。但它只引用了一個來源:一個在2023年11月發佈到LinkedIn 的晦澀博客文章,很可能本身就是由AI 生成的。這與Perplexity 聲稱使用的「新聞機構、學術論文和建立的部落格」 大相徑庭。
對於一個聲稱透過從「可靠來源」 獲取「最新資訊」 提供「精確知識」 來「革新您發現資訊的方式」 的已經陷入困境的初創公司而言,這是一個糟糕的形象。
劃重點:
Perplexity 被曝引用錯誤的AI 產生垃圾訊息,這些訊息來自可疑的部落格和LinkedIn 文章。
GPTZero 偵測出Perplexity 連結的來源中有越來越多是AI 產生的,Perplexity 有時甚至會使用這些來源中的過時和不正確資訊。
Perplexity 聲稱其答案僅來自“可靠來源”,但其AI 演算法是否真的能從好的信息中獲得好的信息真的非常重要。
Perplexity事件再次提醒我們,AI技術雖然發展迅速,但其可靠性和安全性仍需進一步提升。對AI生成內容進行嚴格審核和篩選至關重要,避免AI成為傳播虛假訊息的工具。未來,AI搜尋引擎需要建立更完善的品質控制體系,才能真正為使用者提供可靠的資訊服務。