Kürzlich wurde ein ernstes Problem in Perplexity, dem vielbeachteten KI-Suchtool, aufgedeckt: Seine Antwortquellen enthalten eine große Menge minderwertiger oder sogar falscher KI-generierter Informationen aus unzuverlässigen Blogs und LinkedIn-Beiträgen. Diese Entdeckung löste Bedenken hinsichtlich der Zuverlässigkeit von KI-Suchmaschineninformationen aus und hatte auch enorme Auswirkungen auf den Ruf von Perplexity. In diesem Artikel werden das Dilemma, mit dem Perplexity konfrontiert ist, und die Auswirkungen dieses Vorfalls auf den Bereich der KI im Detail analysiert.
Neue Berichte zeigen, dass das hochkarätige und gut finanzierte KI-Suchtool Perplexity Spam generiert, in dem minderwertige oder sogar fehlerhafte KI aus unzuverlässigen Blogs und LinkedIn-Beiträgen zitiert wird.

GPTZero, ein Startup, das sich auf die Erkennung von KI-generierten Inhalten spezialisiert hat, hat kürzlich eine eingehende Untersuchung von Perplexity durchgeführt. Der CEO des Unternehmens, Edward Tian, bemerkte in einem Blogbeitrag Anfang des Monats, dass ihm aufgefallen sei, dass „immer mehr Quellen für Perplexity-Links automatisch von KI generiert werden“.
Anschließend untersuchte er die KI-Wiederverwendung dieser Informationen durch Perplexity und stellte fest, dass Perplexity in einigen Fällen sogar veraltete und falsche Informationen aus diesen KI-generierten Quellen zog. Mit anderen Worten handelt es sich um einen KI-gesteuerten Kreislauf von Fehlinformationen, bei dem die Fehler und fiktiven Informationen der KI ihren Weg in die KI-generierten Antworten von Perplexity finden.
Für die Frage „Kulturfestivals in Kyoto, Japan“ gab Perplexity beispielsweise eine scheinbar zusammenhängende Liste kultureller Attraktionen in japanischen Städten an. Es wird jedoch nur eine Quelle zitiert: ein obskurer Blog-Beitrag, der im November 2023 auf LinkedIn gepostet wurde und wahrscheinlich selbst von KI generiert wurde. Dies ist weit entfernt von den „Nachrichtenorganisationen, wissenschaftlichen Arbeiten und etablierten Blogs“, die Perplexity angeblich nutzt.
Das ist ein schlechtes Bild für ein bereits in Schwierigkeiten geratenes Startup, das behauptet, „die Art und Weise, wie man Informationen findet, zu revolutionieren“, indem es „genaues Wissen“ liefert, indem es „die neuesten Informationen“ aus „vertrauenswürdigen Quellen“ bezieht.
Höhepunkte:
Es wurde entlarvt, dass Perplexity eine fehlerhafte KI zitierte, um Spam aus fragwürdigen Blogs und LinkedIn-Artikeln zu generieren.
GPTZero hat festgestellt, dass immer mehr Quellen, auf die Perplexity verlinkt, KI-generiert sind und dass Perplexity manchmal sogar veraltete und falsche Informationen aus diesen Quellen verwendet.
Perplexity behauptet, dass seine Antworten nur aus „zuverlässigen Quellen“ stammen, aber es kommt wirklich darauf an, ob seine KI-Algorithmen tatsächlich gute Informationen aus guten Informationen gewinnen.
Der Perplexity-Vorfall erinnert uns erneut daran, dass sich die KI-Technologie zwar rasant weiterentwickelt, ihre Zuverlässigkeit und Sicherheit jedoch noch weiter verbessert werden müssen. Eine strenge Überprüfung und Überprüfung von KI-generierten Inhalten ist von entscheidender Bedeutung, um zu verhindern, dass KI zu einem Instrument zur Verbreitung falscher Informationen wird. In Zukunft müssen KI-Suchmaschinen ein umfassenderes Qualitätskontrollsystem einrichten, um Benutzern wirklich zuverlässige Informationsdienste bereitzustellen.