Sitio web oficial www.binance.com/zh-cn :ingrese el sitio web oficial ☜☜
Aplicación: ☞☞Official App Download☜☜
Recientemente ha surgido una nueva tendencia por la plataforma social X de Elon Musk (anteriormente Twitter), y algunos usuarios han comenzado a usar Grok, un chatbot de IA desarrollado por la compañía de inteligencia artificial de Musk Xai, para "verificación de hechos". Esta práctica ha planteado preocupaciones entre las verificaciones de hechos manuales profesionales que creen que esto puede alimentar aún más la propagación de información falsa.

Se entiende que la plataforma X abrió la función de llamar directamente a Xai Grok para hacer preguntas a los usuarios a principios de este mes, y los usuarios pueden buscar respuestas de Grok en diferentes temas. La medida es similar a la forma en que otra empresa, Perplexity, opera una cuenta de automatización en X para proporcionar servicios similares.
Poco después de la cuenta de Automatización de Grok de XAI lanzada en la plataforma X, los usuarios comenzaron a intentar hacerle varias preguntas. Especialmente en los mercados, incluida la India, algunos usuarios han comenzado a pedirle a Grok que "verifique los comentarios" y cuestiones dirigidas a puntos de vista políticos específicos.
Sin embargo, los verificadores de hechos humanos están preocupados por tales formas de usar Grok o cualquier otro asistente de IA similar para hacer "verificación de hechos" porque estos robots pueden generar respuestas de manera que suena convincente, incluso cuando proporciona información falsa. Grok ha difundido noticias falsas e información engañosa en el pasado.
Ya en agosto del año pasado, cinco Secretario de Estado de EE. UU. Instaron a Musk a hacer ajustes clave para Grok, después de que el ayudante difundió información engañosa en las redes sociales en la víspera de las elecciones de los Estados Unidos en ese momento. No solo eso, también se descubrió que otros chatbots, incluidos los chatgpt de OpenAi y Gemini de Google, generaron información inexacta sobre las elecciones el año pasado. Otros investigadores antidisinformación han descubierto en 2023 que los chatbots de IA, incluido el chatGPT, pueden generar fácilmente un texto engañoso y convincente.
"Los asistentes de IA como Grok son muy buenos para usar un lenguaje natural y dar respuestas que suenan como lo que las personas reales dicen. De esta manera, incluso si los productos de IA son potencialmente malos, pueden dar un sentido de la naturaleza y la realidad. Ahí es donde se encuentra el peligro potencial".
Un usuario X le había pedido a Grok que "verifique" la declaración de otro usuario. A diferencia de los asistentes de IA, los verificadores de hechos humanos utilizan múltiples fuentes de confianza para verificar la información. También asumirán plena responsabilidad por sus hallazgos, nombre y adjuntar la agencia para garantizar la credibilidad.
Pratik Sinha, cofundador del sitio web sin fines de lucro, Alt News, señaló que, aunque Grok parece dar respuestas convincentes en este momento, su capacidad depende completamente de la calidad de los datos que adquiere. Hizo hincapié en: "¿Quién decide qué datos obtiene? La intervención del gobierno y otros problemas seguirán. Las cosas que carecen de transparencia están destinadas a causar daño, porque cualquier cosa que carece de transparencia se puede moldear a voluntad ... se puede abusar, se usa para difundir información falsa".
En una respuesta publicada a principios de esta semana, la cuenta oficial de Grok sobre X admitió que fue "posiblemente abusado, acostumbrado a difundir información falsa e invadir la privacidad". Sin embargo, la cuenta automatizada no muestra ningún descargo de responsabilidad al usuario al dar la respuesta, y si su respuesta es causada por "ilusión", el usuario puede ser engañado como resultado, lo que también es un posible inconveniente de la IA. "Puede fabricar información para proporcionar una respuesta", dijo Anushuka Jain, investigadora de Digital Futures Lab, una institución de investigación interdisciplinaria en Goa.
Además, hay algunas preguntas sobre la medida en que Grok usa publicaciones en la plataforma X como datos de entrenamiento y qué medidas de control de calidad utiliza para verificar la autenticidad de estas publicaciones. El verano pasado, la plataforma X hizo un cambio que parecía permitir que Grok usara datos públicos de los usuarios de X de forma predeterminada.
Otro aspecto preocupante de los asistentes de IA (como Grok) que difunde información públicamente a través de plataformas de redes sociales es que otros en la plataforma aún pueden creerlo, incluso si algunos usuarios son claramente conscientes de que la información obtenida de los asistentes de IA puede ser engañosa o incompleta. Esto puede causar graves daños sociales. Anteriormente en India, la información falsa extendida a través de WhatsApp condujo a la violencia masiva, aunque esos incidentes graves ocurrieron antes de la IA generativa, lo que ahora hace que la producción de contenido sintético sea más fácil y más realista.
"Si ve muchas respuestas de Grok, podría pensar que la mayoría de ellas son correctas, tal vez lo haga, pero ciertamente hay algunos incorrectos. ¿Cuál es la relación de error? Esa no es una pequeña proporción. Algunos estudios muestran que los modelos de IA tienen tasas de error de hasta el 20% ... y una vez que sale mal, puede tener graves consecuencias de la vida real".
Las compañías de IA, incluida XAI, están mejorando sus modelos de IA para comunicarse más como los humanos, pero todavía no son, y no pueden, replicar a los humanos ahora. En los últimos meses, las compañías tecnológicas han estado explorando formas de reducir su dependencia de los verificadores de hechos humanos. Las plataformas que incluyen X y Meta han comenzado a tratar de verificar la verificación de hechos a través de las llamadas "notas comunitarias". Por supuesto, estos cambios también han causado preocupaciones entre los verificadores de hechos.
El Sinha de Alt News es optimista de que las personas eventualmente aprenderán a distinguir entre la máquina y las verificadoras de hechos artificiales y prestarán más atención a la precisión humana. Holanda también cree: "Eventualmente veremos el cambio de péndulo a la dirección de prestar más atención a la verificación de hechos". Sin embargo, señaló que durante este período, los verificadores de hechos pueden tener más trabajo por hacer debido a la rápida propagación de la información generada por la IA. "Una gran parte de este problema depende de si realmente le importa lo que es real o simplemente buscando algo que suene y se sienta real y en realidad no sea así. Porque lo que los asistentes de IA pueden ofrecer es lo último".
Ni X ni Xai respondieron a las solicitudes de comentarios.
Puntos clave:
El robot AI de Musk se utilizó para la verificación de hechos en la plataforma X, causando preocupaciones entre los inspectores manuales sobre la propagación de información engañosa. Los asistentes de IA como Grok pueden generar respuestas creíbles pero inexactas y carecer de control de calidad y fuentes de datos transparentes. Los verificadores de hechos manuales dependen de fuentes confiables de información y asumen responsabilidad, y la IA no puede reemplazar el papel de los humanos en la verificación de la información.