O Openai recentemente enfrentou uma queixa de privacidade da Noruega devido à questão das informações falsas geradas pelo ChatGPT. O caso foi apoiado pelo grupo de defesa de privacidade Noyb, um queixoso chamado Alf Harmar Hallmen. Ele ficou chocado e zangado ao descobrir que Chatgpt havia alegado que havia sido condenado por assassinar dois filhos e tentar matar um terceiro filho.
As queixas de privacidade anteriores sobre o ChatGPT envolveram principalmente alguns erros básicos de dados pessoais, como data imprecisa de nascimento ou informações biográficas. Um problema importante é que o OpenAI não fornece uma maneira eficaz para os indivíduos corrigirem as mensagens de erro geradas pela IA. Normalmente, o OpenAI impede as respostas que geram essas mensagens de erro. No entanto, sob o Regulamento Geral de Proteção de Dados da UE (GDPR), os europeus têm uma série de direitos de acesso a dados, incluindo o direito de corrigir dados pessoais.
O NOYB apontou que o GDPR estipula que os dados pessoais devem ser precisos e que, se as informações forem imprecisas, os usuários terão o direito de solicitar correção. O advogado de Noyb, piada Soderbery, disse que o Openai simplesmente adicionou um aviso no fundo, alegando que "o chatgpt pode cometer erros" não é um aviso. De acordo com o GDPR, é de responsabilidade dos desenvolvedores de IA garantir que as informações que geram não espalhem conteúdo falso sério.
As violações do GDPR podem resultar em multas de até 4% da renda anual global. Na primavera de 2023, o regulador de proteção de dados da Itália bloqueou temporariamente o acesso ao ChatGPT, uma medida levou o OpenAI a ajustar a divulgação de informações do usuário. No entanto, nos últimos anos, os reguladores de privacidade da Europa adotaram uma abordagem mais cautelosa à IA generativa em busca de soluções regulatórias adequadas.
A nova reclamação da Noyb pretende atrair as preocupações dos reguladores sobre os perigos potenciais da IA gerar informações falsas. Eles compartilharam uma captura de tela de sua interação com o ChatGPT, mostrando que a IA produziu uma história completamente falsa e perturbadora em resposta a uma pergunta sobre Hallmen. Esse incidente não está isolado e o Noyb também aponta para casos em que outros usuários sofrem danos semelhantes em desinformação.
Embora o OpenAI tenha parado de falsas alegações contra Hallmen após sua atualização de modelo, o Noyb e os próprios Hallmen estavam preocupados com o fato de que informações erradas poderiam ser mantidas no modelo de IA. O NOYB apresentou uma queixa à Agência de Proteção de Dados da Noruega e espera que os reguladores possam investigar isso.
Pontos -chave:
O NOYB apoia um indivíduo norueguês que registra uma queixa de privacidade contra o ChatGPT, acusando -o de gerar informações falsas.
De acordo com o GDPR, os dados pessoais devem ser precisos e o OpenAI não atendeu a esse requisito.
Noyb espera que essa reclamação atraia a atenção dos reguladores para os problemas de informação falsa da IA.