Recentemente, a Human Rights Watch (HRW) divulgou um relatório revelando a presença de um grande número de fotos pessoais não autorizadas de crianças brasileiras no popular conjunto de dados de treinamento do gerador de imagens de IA. Essas fotos vêm de blogs e vídeos pessoais e contêm nomes e informações de localização de crianças, que podem ser facilmente rastreadas e abusadas, levantando sérias preocupações com privacidade e segurança das crianças. O relatório destacou que o desenvolvimento da tecnologia de IA para mudança de rosto aumentou o risco de retratos de crianças serem usados para gerar conteúdo pornográfico, trazendo riscos para as crianças, como bullying e pesca, e até causando traumas mentais duradouros. A HRW apela aos governos e às empresas tecnológicas para que assumam a responsabilidade e desenvolvam medidas de proteção, e recomenda o reforço da proteção dos dados das crianças a nível legal.
O relatório apontou que o conjunto de dados LAION-5B contém pelo menos 170 fotos de crianças de 10 estados do Brasil, abrangendo diversas fases da criança, desde a infância até a adolescência. Embora a organização LAION tenha tomado medidas para remover ligações relevantes, o relatório acredita que isto pode subestimar a situação real. A HRW enfatizou que é injusto transferir a responsabilidade de proteger a privacidade das crianças para os pais. O governo e as empresas de tecnologia devem assumir ativamente a responsabilidade, formular leis e regulamentos relevantes, proibir claramente o uso de dados pessoais das crianças para treinar sistemas de IA sem permissão e fornecer. responsabilização pelas crianças vítimas. Os países de todo o mundo devem também reforçar a proteção dos dados das crianças para evitar o abuso da IA e a geração de conteúdos inadequados. Este incidente destaca mais uma vez os desafios éticos e as questões de segurança de dados existentes no desenvolvimento da tecnologia de inteligência artificial, que exigem esforços conjuntos de todas as partes para os resolver eficazmente.