近日,备受关注的AI搜索工具Perplexity被爆出严重问题:其答案来源中包含大量来自不可靠博客和LinkedIn帖子的低质量甚至错误的AI生成信息。这一发现引发了人们对AI搜索引擎信息可靠性的担忧,也对Perplexity的声誉造成巨大冲击。本文将详细分析Perplexity面临的困境,以及这一事件对AI领域的影响。
最新报道揭露,备受瞩目并且备受资金支持的 AI 搜索工具 Perplexity,正引用来自不可靠的博客和 LinkedIn 帖子的低质量甚至错误的 AI 生成垃圾信息。

GPTZero 是一家专门检测 AI 生成内容的初创公司,最近对 Perplexity 进行了深入调查。该公司的 CEO Edward Tian 在本月早些时候发表的一篇博客中指出,他注意到 Perplexity 链接的来源中有 “越来越多的是 AI 自动生成的”。
随后,他检查了 Perplexity 对这些信息的 AI 重复使用,并发现在某些情况下,Perplexity 甚至出现了从这些 AI 生成的来源中抽取过时和不正确信息的情况。换句话说,这是一个 AI 驱动的错误信息循环,其中 AI 的错误和虚构信息进入了 Perplexity 的 AI 生成答案中。
举例来说,对于 “日本京都的文化节” 这一问题,Perplexity 给出了一个看似连贯的日本城市的文化景点列表。但它只引用了一个来源:一个在2023年11月发布到 LinkedIn 的晦涩博客文章,很可能本身就是由 AI 生成的。这与 Perplexity 声称使用的 “新闻机构、学术论文和建立的博客” 大相径庭。
对于一个声称通过从 “可靠来源” 获取 “最新信息” 提供 “精确知识” 来 “革新您发现信息的方式” 的已经陷入困境的初创公司而言,这是一个糟糕的形象。
划重点:
Perplexity 被曝引用错误的 AI 生成垃圾信息,这些信息来自可疑的博客和 LinkedIn 文章。
GPTZero 检测出 Perplexity 链接的来源中有越来越多是 AI 生成的,Perplexity 有时甚至会使用这些来源中的过时和不正确信息。
Perplexity 声称其答案仅来自 “可靠来源”,但其 AI 算法是否真的能从好的信息中获取好的信息真的非常重要。
Perplexity事件再次提醒我们,AI技术虽然发展迅速,但其可靠性和安全性仍需进一步提升。对AI生成内容进行严格审核和筛选至关重要,避免AI成为传播虚假信息的工具。未来,AI搜索引擎需要建立更加完善的质量控制体系,才能真正为用户提供可靠的信息服务。