Sitio web oficial www.binance.com/zh-cn :ingrese el sitio web oficial ☜☜
Aplicación: ☞☞Official App Download☜☜
La última investigación del Centro de noticias digitales en Columbia News Review revela un fenómeno impactante: la popularidad de las herramientas de búsqueda de IA proporciona información incorrecta o engañosa al responder preguntas. Este descubrimiento no solo es preocupante, sino que también debilita directamente la confianza pública en los informes de noticias, al tiempo que expone a los editores a dobles pérdidas en el tráfico y los ingresos.

Los investigadores probaron ocho chatbots de IA generativos, incluidos ChatGPT, Perplexity, Gemini y Grok, pidiéndoles que identifiquen extractos de 200 artículos de noticias más recientes. Los resultados muestran que más del 60% de las respuestas son incorrectas. Estos chatbots a menudo fabrican títulos, no citan artículos ni citan contenido no autorizado. Incluso si señalan correctamente al editor, los enlaces a menudo apuntan a URL inválidas, versiones reimpresas o páginas que no están relacionadas con el contenido.
Decepcionantemente, estos chatbots rara vez expresan incertidumbre, pero en su lugar proporcionan respuestas incorrectas con una confianza inapropiada. Por ejemplo, ChatGPT proporciona 134 mensajes de error en 200 consultas, pero ha expresado sospechas solo en 15 veces. Incluso las versiones pagas de Perplexity Pro y Grok3 no son satisfactorias, con el número de respuestas incorrectas más altas, aunque tienen un precio de $ 20 y $ 40 por mes, respectivamente.
En términos de citas de contenido, múltiples chatbots no pudieron seguir los intentos restrictivos de los editores, y cinco chatbots incluso ignoraron el estándar ampliamente aceptado de protocolos de exclusión BOT. La perplejidad una vez citó correctamente los artículos de National Geographic cuando los editores restringieron a sus rastreadores. Mientras tanto, Chatgpt recitó los artículos de USA Today Artículos de contenido de muro de pago a través de noticias no autorizadas de Yahoo.
Además, muchos chatbots dirigen a los usuarios a reimpreso artículos en plataformas como AOL o Yahoo, en lugar de la fuente original, incluso si se ha alcanzado un acuerdo de autorización con las compañías de IA. Por ejemplo, Perplexity Pro citó una versión reimpresa del Foro de Texas, pero no pudo dar la firma debida. Grok3 y Gemini a menudo inventan URL, y 154 del enlace de 200 respuestas de GROK3 a la página de error.
Este estudio destaca las crecientes organizaciones de noticias que enfrentan crisis. Cada vez más estadounidenses están utilizando herramientas de IA como fuente de información, pero a diferencia de Google, los chatbots no dirigen el tráfico a los sitios web, sino que resumen el contenido sin vincular, lo que hace que los editores pierdan ingresos publicitarios. Danielle Coffey de The News Media Alliance advirtió que sin control sobre los rastreadores, los editores no podrían "hacer contenido valioso o pagar los salarios de los periodistas".
Después de contactar a Openai y Microsoft, el equipo de investigación defendió su enfoque pero no respondió a los resultados de la investigación específicos. Operai dijo que "respeta las preferencias de los editores" y ayuda a los usuarios a "descubrir contenido de calidad", mientras que Microsoft afirma que sigue el protocolo "robots.txt". Los investigadores enfatizan que las prácticas de citas incorrectas son problemas sistemáticos, no herramientas individuales. Pidieron a las compañías de IA que mejoren la transparencia, la precisión y el respeto por los derechos de los editores.
Puntos clave:
El estudio encontró que la tasa de error de respuesta de los chatbots de IA supera el 60%, lo que afecta seriamente la credibilidad de las noticias.
Varios chatbots ignoran las restricciones del editor y cotizan contenido no autorizado y enlaces incorrectos.
Las organizaciones de noticias se enfrentan a una doble crisis de tráfico e ingresos, y las herramientas de IA están reemplazando gradualmente a los motores de búsqueda tradicionales.