Recientemente, se ha revelado un problema grave en Perplexity, la herramienta de búsqueda de IA muy vista: sus fuentes de respuestas contienen una gran cantidad de información de baja calidad o incluso incorrecta generada por IA de blogs y publicaciones de LinkedIn no confiables. Este descubrimiento generó preocupaciones sobre la confiabilidad de la información del motor de búsqueda de IA y también tuvo un gran impacto en la reputación de Perplexity. Este artículo analizará en detalle el dilema que enfrenta Perplexity y el impacto de este incidente en el campo de la IA.
Nuevos informes revelan que Perplexity, la herramienta de búsqueda de IA de alto perfil y bien financiada, está generando spam citando IA de baja calidad o incluso defectuosa de blogs y publicaciones de LinkedIn poco confiables.

GPTZero, una startup que se especializa en detectar contenido generado por IA, realizó recientemente una investigación en profundidad de Perplexity. El director ejecutivo de la compañía, Edward Tian, señaló en una publicación de blog a principios de este mes que había notado que "cada vez más fuentes de enlaces de Perplejidad son generadas automáticamente por IA".
Luego examinó la reutilización de esta información por parte de la IA de Perplexity y descubrió que, en algunos casos, Perplexity incluso extraía información obsoleta e incorrecta de estas fuentes generadas por la IA. En otras palabras, es un ciclo de desinformación impulsado por la IA, donde los errores y la información ficticia de la IA encuentran su camino hacia las respuestas generadas por la IA de Perplexity.
Por ejemplo, para la pregunta “Festivales culturales en Kioto, Japón”, Perplexity dio una lista aparentemente coherente de atracciones culturales en las ciudades japonesas. Pero cita solo una fuente: una oscura publicación de blog publicada en LinkedIn en noviembre de 2023 que probablemente fue generada por IA. Esto está muy lejos de las "organizaciones de noticias, artículos académicos y blogs establecidos" que Perplexity dice utilizar.
Esa es una mala imagen para una startup que ya tiene problemas y que afirma estar "revolucionando la forma de descubrir información" al brindar "conocimiento preciso" al obtener "la información más reciente" de "fuentes confiables".
Reflejos:
Se expuso la perplejidad al citar una IA defectuosa para generar spam de blogs y artículos de LinkedIn cuestionables.
GPTZero ha detectado que un número cada vez mayor de fuentes vinculadas por Perplexity están generadas por IA, y que Perplexity a veces incluso utiliza información obsoleta e incorrecta de estas fuentes.
Perplexity afirma que sus respuestas sólo provienen de "fuentes confiables", pero realmente importa si sus algoritmos de IA realmente obtienen buena información a partir de buena información.
El incidente de Perplexity nos recuerda una vez más que, aunque la tecnología de inteligencia artificial se está desarrollando rápidamente, su confiabilidad y seguridad aún deben mejorarse aún más. Una revisión y selección estrictas del contenido generado por IA es crucial para evitar que la IA se convierta en una herramienta para difundir información falsa. En el futuro, los motores de búsqueda de IA deberán establecer un sistema de control de calidad más completo para brindar verdaderamente a los usuarios servicios de información confiables.