Sitio web oficial www.binance.com/zh-cn :ingrese el sitio web oficial ☜☜
Aplicación: ☞☞Official App Download☜☜
Operai recientemente enfrentó una queja de privacidad de Noruega debido a la cuestión de la información falsa generada por ChatGPT. El caso fue apoyado por el grupo de defensa de la privacidad Noyb, un demandante llamado Alf Hargar Hallmen. Estaba conmocionado y enojado cuando descubrió que Chatgpt había afirmado por error que había sido condenado por asesinar a dos hijos e intentar matar a un tercer hijo.
Las quejas de privacidad pasadas sobre ChatGPT han involucrado principalmente algunos errores básicos de datos personales, como la fecha inexacta de nacimiento o información biográfica. Un problema clave es que OpenAI no proporciona una forma efectiva para que las personas corrijan los mensajes de error generados por AI. Por lo general, OpenAI previene las respuestas que generan tales mensajes de error. Sin embargo, según el Reglamento General de Protección de Datos de la UE (GDPR), los europeos tienen una variedad de derechos de acceso a datos, incluido el derecho de corregir datos personales.
Noyb señaló que GDPR estipula que los datos personales deben ser precisos y que si la información es inexacta, los usuarios tienen derecho a solicitar la corrección. El abogado de Noyb, Jokeem Soderbery, dijo que OpenAi simplemente agregó un descargo de responsabilidad en la parte inferior, alegando que "chatgpt puede cometer errores" no es un descargo de responsabilidad. Según GDPR, es responsabilidad de los desarrolladores de IA asegurarse de que la información que generan no difunde contenido falso serio.
Las violaciones de GDPR pueden dar como resultado multas hasta el 4% de los ingresos anuales globales. En la primavera de 2023, el regulador de protección de datos de Italia bloqueó temporalmente el acceso a CHATGPT, una medida solicitó a OpenAI a ajustar su divulgación de información del usuario. Sin embargo, en los últimos años, los reguladores de la privacidad en Europa han adoptado un enfoque más cauteloso para la IA generativa en busca de soluciones regulatorias adecuadas.
La nueva queja de Noyb está destinada a atraer las preocupaciones de los reguladores sobre los peligros potenciales de generar información falsa. Compartieron una captura de pantalla de su interacción con ChatGPT, mostrando que la IA produjo una historia completamente falsa e inquietante en respuesta a una pregunta sobre Hallmen. Este incidente no está aislado, y NoyB también señala casos en los que otros usuarios sufren daños por desinformación similar.
Aunque Operai detuvo las falsas acusaciones contra Hallmen después de su actualización del modelo, Noyb y Hallmen estaban preocupados de que la información incorrecta pudiera conservarse dentro del modelo AI. Noyb ha presentado una queja ante la Agencia de Protección de Datos Noruega y espera que los reguladores puedan investigar esto.
Puntos clave:
Noyb apoya a un individuo noruego que presenta una queja de privacidad contra ChatGPT, acusándolo de generar información falsa.
Según GDPR, los datos personales deben ser precisos y OpenAI no logró cumplir con este requisito.
Noyb espera que esta queja atraiga la atención de los reguladores a los problemas de información falsa de IA.