Situs web resmi www.binance.com/zh-cn :Masukkan situs web resmi ☜☜
Aplikasi: ☞☞ Unduh Aplikasi Resmi☜☜
Openai baru -baru ini menghadapi keluhan privasi dari Norwegia karena masalah informasi palsu yang dihasilkan oleh ChatGPT. Kasus ini didukung oleh kelompok advokasi privasi Noyb, seorang pengadu bernama Alf Harmar Hallmen. Dia terkejut dan marah ketika dia menemukan bahwa Chatgpt secara keliru mengklaim bahwa dia telah dihukum karena membunuh dua anak dan berusaha membunuh anak ketiga.
Keluhan privasi masa lalu tentang chatgpt terutama melibatkan beberapa kesalahan data pribadi dasar, seperti tanggal lahir atau informasi biografi yang tidak akurat. Masalah utama adalah bahwa OpenAI tidak memberikan cara yang efektif bagi individu untuk memperbaiki pesan kesalahan yang dihasilkan oleh AI. Biasanya, OpenAI mencegah tanggapan yang menghasilkan pesan kesalahan tersebut. Namun, di bawah Peraturan Perlindungan Data Umum UE (GDPR), orang Eropa memiliki berbagai hak akses data, termasuk hak untuk memperbaiki data pribadi.
NOYB menunjukkan bahwa GDPR menetapkan bahwa data pribadi harus akurat dan bahwa jika informasinya tidak akurat, pengguna memiliki hak untuk meminta koreksi. Pengacara NOYB, Jokeemem Soderbery mengatakan Openai hanya menambahkan penafian di bagian bawah, mengklaim bahwa "chatgpt mungkin membuat kesalahan" bukanlah penafian. Menurut GDPR, itu adalah tanggung jawab pengembang AI untuk memastikan bahwa informasi yang mereka hasilkan tidak menyebarkan konten palsu yang serius.
Pelanggaran GDPR dapat menghasilkan denda hingga 4% dari pendapatan tahunan global. Pada musim semi 2023, regulator perlindungan data Italia untuk sementara memblokir akses ke chatgpt, suatu ukuran mendorong OpenAi untuk menyesuaikan pengungkapan informasi penggunanya. Namun demikian, dalam beberapa tahun terakhir, regulator privasi di Eropa telah mengambil pendekatan yang lebih hati -hati terhadap AI generatif untuk mencari solusi peraturan yang sesuai.
Keluhan baru NOYB dimaksudkan untuk menarik kekhawatiran regulator tentang potensi bahaya AI menghasilkan informasi palsu. Mereka berbagi tangkapan layar interaksi mereka dengan chatgpt, menunjukkan bahwa AI menghasilkan sejarah yang sepenuhnya salah dan mengganggu sebagai tanggapan terhadap pertanyaan tentang Hallmen. Kejadian ini tidak terisolasi, dan NOYB juga menunjukkan kasus -kasus di mana pengguna lain menderita kerusakan informasi yang serupa.
Meskipun Openai menghentikan tuduhan palsu terhadap Hallmen setelah pembaruan modelnya, Noyb dan Hallmen sendiri khawatir bahwa informasi yang salah mungkin disimpan dalam model AI. NOYB telah mengajukan keluhan kepada Badan Perlindungan Data Norwegia dan menantikan regulator yang dapat menyelidiki ini.
Poin -Poin Kunci:
NOYB mendukung individu Norwegia yang mengajukan keluhan privasi terhadap chatgpt, menuduhnya menghasilkan informasi palsu.
Menurut GDPR, data pribadi harus akurat dan OpenAI gagal memenuhi persyaratan ini.
NOYB berharap bahwa keluhan ini akan menarik perhatian regulator ke masalah informasi palsu AI.