Openaiは最近、ChatGptによって生成された虚偽の情報の問題により、ノルウェーからプライバシーの苦情に直面しました。このケースは、Alf Harmar Hallmenという名前の申立人であるプライバシー擁護グループNoybによってサポートされていました。チャットグプが2人の子供を殺害し、3人目の子供を殺そうとしたことで有罪判決を受けたと誤って主張したことを発見したとき、彼はショックを受けて怒っていました。
CHATGPTに関する過去のプライバシーの苦情には、主に、生年月日や伝記情報や伝記情報など、いくつかの基本的な個人データエラーが含まれています。重要な問題は、OpenaiがAIによって生成されたエラーメッセージを修正するための効果的な方法を提供しないことです。通常、OpenAIは、そのようなエラーメッセージを生成する応答を防ぎます。ただし、EUの一般データ保護規則(GDPR)では、ヨーロッパ人には、個人データを修正する権利を含むさまざまなデータアクセス権があります。
NOYBは、GDPRは個人データが正確でなければならないと規定しており、情報が不正確である場合、ユーザーは修正を要求する権利があると規定していると指摘しました。 Noybの弁護士Jokeem Soderberyは、Openaiが単に免責事項を下に追加しただけで、「ChatGptが間違いを犯すかもしれない」は免責事項ではないと主張したと述べた。 GDPRによると、生成する情報が深刻な誤ったコンテンツを拡大しないようにすることは、AI開発者の責任です。
GDPR違反は、世界的な年間収入の最大4%の罰金をもたらす可能性があります。 2023年の春、イタリアのデータ保護レギュレーターはCHATGPTへのアクセスを一時的にブロックしました。これにより、OpenAIはユーザー情報の開示を調整するよう促しました。それにもかかわらず、近年、ヨーロッパのプライバシー規制当局は、適切な規制ソリューションを求めて、生成AIに対してより慎重なアプローチを採用しています。
NOYBの新しい苦情は、誤った情報を生成するAIの潜在的な危険性に関する規制当局の懸念を引き出すことを目的としています。彼らはChatGptとの相互作用のスクリーンショットを共有し、AIがホールマンについての質問に応じて完全に虚偽の不穏な歴史を生み出したことを示しました。この事件は隔離されておらず、NOYBは他のユーザーが同様の誤った情報被害を受けた場合も指し示しています。
Openaiは、モデルの更新後にHallmenに対する虚偽の申し立てを停止しましたが、NoybとHallmen自身は、AIモデル内で間違った情報が保持される可能性があることを懸念していました。 NOYBは、ノルウェーのデータ保護庁に苦情を申し立てており、規制当局がこれを調査できることを楽しみにしています。
キーポイント:
NOYBは、Norwegianの個人がChatGPTに対してプライバシーの苦情を提出し、誤った情報を生成したと非難しています。
GDPRによると、個人データは正確でなければならず、Openaiはこの要件を満たすことができません。
Noybは、この苦情がAIの誤った情報の問題に規制当局の注意を引くことを望んでいます。