最近、注目の AI 検索ツールである Perplexity で深刻な問題が明らかになりました。その回答ソースには、信頼性の低いブログや LinkedIn の投稿から AI が生成した低品質の情報、さらには間違った情報が大量に含まれています。この発見は、AI 検索エンジンの情報の信頼性に関する懸念を引き起こし、Perplexity の評判にも大きな影響を与えました。この記事では、Perplexity が直面するジレンマと、この事件が AI 分野に与える影響について詳しく分析します。
新しいレポートによると、知名度が高く資金も豊富な AI 検索ツール Perplexity が、信頼性の低いブログや LinkedIn の投稿から低品質または欠陥のある AI を引用するスパムを生成していることが明らかになりました。

AI 生成コンテンツの検出を専門とするスタートアップ GPTZero は、最近 Perplexity の詳細な調査を実施しました。同社のCEO、エドワード・ティアン氏は今月初めのブログ投稿で、「Perplexityリンクのソースの多くがAIによって自動的に生成されている」ことに気づいたと述べた。
次に、Perplexity によるこの情報の AI 再利用を調査したところ、場合によっては、Perplexity がこれらの AI 生成ソースから古くて不正確な情報を引き出していることさえ判明しました。言い換えれば、これは AI 主導の誤った情報のサイクルであり、AI の間違いや架空の情報が Perplexity の AI 生成の回答に混入します。
たとえば、「日本の京都の文化祭」という質問に対して、Perplexity は日本の都市の文化的魅力の一見一貫したリストを提供しました。しかし、情報源として挙げているのは 1 つだけで、2023 年 11 月に LinkedIn に投稿された、AI によって生成された可能性が高い不明瞭なブログ投稿です。これは、Perplexity が使用していると主張する「報道機関、学術論文、確立されたブログ」とは大きく異なります。
これは、「信頼できる情報源」から「最新情報」を入手することで「正確な知識」を提供することで「情報発見の方法に革命を起こす」と主張する、すでに問題を抱えているスタートアップにとって悪いイメージだ。
ハイライト:
Perplexity は、欠陥のある AI を引用して、疑わしいブログや LinkedIn の投稿からスパムを生成したとして暴露されました。
GPTZero は、Perplexity によってリンクされているソースの数が AI によって生成されていることが増えており、Perplexity がこれらのソースからの古くて不正確な情報を使用することさえあることを検出しました。
Perplexity は、答えは「信頼できる情報源」からのみ提供されていると主張していますが、実際に重要なのは、同社の AI アルゴリズムが実際に適切な情報から適切な情報を取得しているかどうかです。
Perplexity 事件は、AI テクノロジーは急速に発展しているものの、その信頼性とセキュリティはまださらに向上する必要があることを改めて認識させられました。 AI が誤った情報を拡散するツールになるのを防ぐには、AI が生成したコンテンツの厳格な審査とスクリーニングが不可欠です。将来、AI検索エンジンは、ユーザーに真に信頼できる情報サービスを提供するために、より完全な品質管理システムを確立する必要があります。