Openai는 최근 Chatgpt가 생성 한 허위 정보 문제로 인해 노르웨이의 개인 정보 불만에 직면했습니다. 이 사건은 ALF Harmar Hallmen이라는 고소인 인 Privacy Advocacy Group Noyb에 의해 지원되었습니다. 그는 Chatgpt가 실수로 두 자녀를 살해하고 세 번째 자녀를 살해하려는 혐의로 유죄 판결을 받았다고 주장했다는 사실을 알게되면서 충격을 받고 화를 냈다.
ChatGpt에 대한 과거의 개인 정보 불만은 주로 생년월일 또는 전기 정보와 같은 몇 가지 기본 개인 데이터 오류가 포함되었습니다. 주요 문제는 OpenAI가 개인이 AI에서 생성 한 오류 메시지를 수정하는 효과적인 방법을 제공하지 않는다는 것입니다. 일반적으로 OpenAI는 이러한 오류 메시지를 생성하는 응답을 방지합니다. 그러나 EU 일반 데이터 보호 규정 (GDPR)에 따라 유럽인들은 개인 데이터를 수정할 권리를 포함하여 다양한 데이터 액세스 권한이 있습니다.
NOYB는 GDPR이 개인 데이터가 정확해야하며 정보가 정확하지 않은 경우 사용자는 수정을 요청할 권리가 있다고 지적했습니다. Noyb의 변호사 인 Jokeem Soderbery는 Openai가 단순히 맨 아래에 면책 조항을 추가했으며 "Chatgpt가 실수를 할 수있다"고 주장하면서 면책 조항이 아니라고 주장했다. GDPR에 따르면, 그들이 생성하는 정보가 심각한 잘못된 내용을 전파하지 않도록 AI 개발자의 책임입니다.
GDPR 위반으로 인해 전 세계 연간 소득의 최대 4%의 벌금이 부과 될 수 있습니다. 2023 년 봄, 이탈리아의 데이터 보호 규제 기관은 Chatgpt에 대한 액세스를 일시적으로 차단했으며,이 측정 값은 OpenAI가 사용자 정보 공개를 조정하라는 메시지를 표시했습니다. 그럼에도 불구하고 최근 몇 년 동안 유럽의 개인 정보 보호 규제 당국은 적절한 규제 솔루션을 찾기 위해 생성 AI에보다 신중한 접근 방식을 취해 왔습니다.
NOYB의 새로운 불만은 AI가 허위 정보를 생성하는 잠재적 위험에 대한 규제 당국의 우려를 도출하기위한 것입니다. 그들은 Chatgpt와의 상호 작용에 대한 스크린 샷을 공유하여 AI가 Hallmen에 대한 질문에 대해 완전히 거짓적이고 혼란스러운 역사를 만들었 음을 보여줍니다. 이 사건은 고립되지 않았으며 NOYB는 다른 사용자가 유사한 잘못된 정보 손상을 입는 경우를 지적합니다.
Openai는 모델 업데이트 후 Hallmen에 대한 허위 주장을 중단했지만 Noyb와 Hallmen은 AI 모델 내에 잘못된 정보가 유지 될 수 있다고 우려했습니다. Noyb는 노르웨이 데이터 보호국에 불만을 제기했으며 규제 당국이이를 조사 할 수 있기를 기대합니다.
핵심 사항 :
NOYB는 Chatgpt에 대한 개인 정보 불만을 제기하는 노르웨이 개인이 허위 정보를 생성한다고 비난합니다.
GDPR에 따르면 개인 데이터는 정확해야하며 OpenAI는이 요구 사항을 충족시키지 못했습니다.
NOYB는이 불만이 AI 허위 정보 문제에 대한 규제 기관의 관심을 끌기를 희망합니다.