Недавно в Perplexity, популярном поисковом инструменте искусственного интеллекта, была обнаружена серьезная проблема: его источники ответов содержат большое количество некачественной или даже неправильной информации, сгенерированной искусственным интеллектом, из ненадежных блогов и постов LinkedIn. Это открытие вызвало обеспокоенность по поводу надежности информации поисковых систем ИИ, а также оказало огромное влияние на репутацию Perplexity. В этой статье будет подробно проанализирована дилемма, с которой столкнулся Perplexity, и влияние этого инцидента на сферу ИИ.
Новые отчеты показывают, что известный и хорошо финансируемый поисковый инструмент ИИ Perplexity генерирует спам, ссылаясь на некачественный или даже неисправный ИИ из ненадежных блогов и публикаций в LinkedIn.

GPTZero, стартап, специализирующийся на обнаружении контента, созданного искусственным интеллектом, недавно провел углубленное исследование Perplexity. Генеральный директор компании Эдвард Тиан ранее в этом месяце отметил в своем блоге, что заметил, что «все больше и больше источников ссылок Perplexity автоматически генерируются ИИ».
Затем он изучил повторное использование этой информации ИИ Perplexity и обнаружил, что в некоторых случаях Perplexity даже извлекал устаревшую и неверную информацию из этих источников, сгенерированных ИИ. Другими словами, это управляемый ИИ цикл дезинформации, в котором ошибки ИИ и вымышленная информация попадают в ответы, генерируемые ИИ Perplexity.
Например, на вопрос «Культурные фестивали в Киото, Япония» Perplexity предоставил, казалось бы, последовательный список культурных достопримечательностей японских городов. Но он цитирует только один источник: малоизвестную запись в блоге, опубликованную в LinkedIn в ноябре 2023 года, которая, вероятно, сама была создана искусственным интеллектом. Это далеко от «новостных организаций, научных статей и авторитетных блогов», которые, как утверждает Perplexity, использует.
Это плохой имидж для и без того проблемного стартапа, который утверждает, что «совершает революцию в способах поиска информации», предоставляя «точные знания», получая «самую свежую информацию» из «доверенных источников».
Основные моменты:
Растерянность была раскрыта как цитирование ошибочного ИИ для генерации спама из сомнительных блогов и статей в LinkedIn.
GPTZero обнаружил, что все больше источников, на которые ссылается Perplexity, созданы искусственным интеллектом, и что Perplexity иногда даже использует устаревшую и неверную информацию из этих источников.
Perplexity утверждает, что ее ответы поступают только из «надежных источников», но действительно важно, действительно ли ее алгоритмы ИИ получают хорошую информацию из хорошей информации.
Инцидент с Perplexity еще раз напоминает нам о том, что, хотя технология искусственного интеллекта быстро развивается, ее надежность и безопасность все еще нуждаются в дальнейшем повышении. Строгий анализ и проверка контента, созданного ИИ, имеют решающее значение для предотвращения превращения ИИ в инструмент распространения ложной информации. В будущем поисковым системам искусственного интеллекта необходимо создать более полную систему контроля качества, чтобы действительно предоставлять пользователям надежные информационные услуги.