Baru-baru ini, editor Downcodes mengetahui bahwa peneliti keamanan John Rehberg menemukan kerentanan serius di ChatGPT, yang memungkinkan peretas menanamkan informasi palsu dan instruksi jahat ke dalam memori jangka panjang pengguna, sehingga mencuri data pengguna secara permanen. OpenAI awalnya lambat merespons kerentanan, namun akhirnya merilis perbaikan parsial setelah dihadapkan pada contoh serangan bukti konsep yang diberikan oleh para peneliti. Kerentanan ini memanfaatkan fungsi memori sesi jangka panjang ChatGPT. Penyerang dapat menanamkan memori palsu melalui injeksi cepat tidak langsung, misalnya, membuat ChatGPT percaya bahwa usia pengguna, tempat tinggal, dan informasi lainnya adalah palsu.
Baru-baru ini, peneliti keamanan Johann Rehberger menemukan kerentanan di ChatGPT yang memungkinkan peretas menanamkan informasi palsu dan instruksi jahat ke dalam memori jangka panjang pengguna.
Meskipun dia melaporkan masalah ini ke OpenAI, sayangnya, perusahaan tersebut tidak menanggapinya dengan cukup serius dan segera menutup penyelidikan, dengan alasan bahwa ini bukan masalah keamanan.
Menghadapi situasi ini, Reberg memutuskan untuk tidak menyerah dan mengembangkan contoh serangan bukti konsep yang dapat mengeksploitasi kerentanan ini untuk mencuri semua data masukan pengguna secara permanen. OpenAI melihat hal ini terjadi dan merilis perbaikan sebagian bulan ini dalam upaya menyelesaikan masalah tersebut.
Jadi, bagaimana kerentanan ini muncul? Ia memanfaatkan fungsi memori sesi jangka panjang ChatGPT, yang telah diuji sejak Februari tahun ini dan diluncurkan secara resmi pada bulan September. Memori jangka panjang dapat menyimpan informasi dari percakapan pengguna sebelumnya dan menggunakannya sebagai konteks dalam percakapan berikutnya. Dengan kata lain, ChatGPT dapat mengingat usia pengguna, jenis kelamin, minat dan hobi, dll., sehingga pengguna tidak perlu memasukkan kembali informasi tersebut setiap saat.
Namun, Rehberg segera menemukan setelah peluncuran bahwa melalui metode yang disebut injeksi petunjuk tidak langsung, penyerang dapat membuat dan menyimpan ingatan palsu.
Dia menunjukkan cara mengelabui ChatGPT agar percaya bahwa pengguna berusia 102 tahun, tinggal di The Matrix, dan percaya bahwa Bumi itu datar. Informasi palsu ini dapat ditanam melalui penyimpanan file yang tidak aman (seperti Google Drive atau Microsoft OneDrive), mengunggah gambar berbahaya, atau mengunjungi situs web mencurigakan seperti Bing.

Dokumen demo: https://embracethered.com/blog/posts/2024/chatgpt-hacking-memories/
Rehberg secara pribadi melaporkan kerentanan terhadap OpenAI pada bulan Mei, tetapi perusahaan tersebut menutup laporan tersebut pada bulan yang sama. Sebulan kemudian, dia mengajukan klaim baru, dengan melampirkan contoh bukti konsep yang memungkinkan aplikasi macOS ChatGPT mengirimkan input dan output pengguna kata demi kata ke server yang dia kendalikan. Yang perlu dilakukan pengguna target hanyalah memberikan ChatGPT akses ke tautan yang berisi gambar berbahaya, dan sejak saat itu, semua konten percakapan bocor ke situs web penyerang.
“Ini sangat menarik karena serangan terus terjadi,” kata Rehberg saat demonstrasi. "Injeksi tip menulis memori ke penyimpanan jangka panjang ChatGPT, dan percakapan baru akan terus mencuri data."
Meskipun OpenAI telah menerapkan beberapa perbaikan untuk mencegah memori digunakan sebagai sarana untuk mencuri data, Reberg mengingatkan pengguna untuk tetap mewaspadai kemungkinan serangan injeksi petunjuk yang disebabkan oleh konten yang tidak tepercaya. Dia menyarankan bahwa saat menggunakan ChatGPT, pengguna harus mengamati dengan cermat konten keluaran untuk melihat apakah ada memori baru yang ditambahkan, dan secara teratur memeriksa memori yang disimpan untuk memastikan bahwa memori tersebut tidak ditanamkan secara jahat.
Menyorot:
John Rehberg menemukan kerentanan di ChatGPT yang memungkinkan peretas menanamkan informasi palsu di ingatan pengguna.
? Kerentanan ini dapat mencuri data masukan pengguna secara permanen melalui fungsi memori jangka panjang.
Pengguna perlu memeriksa memori yang tersimpan secara teratur untuk mencegah penanaman informasi palsu.
Secara keseluruhan, kerentanan di ChatGPT ini sekali lagi mengingatkan kita bahwa keamanan teknologi kecerdasan buatan sangat penting dan mengharuskan pengembang dan pengguna bekerja sama untuk memastikan keamanan informasi pengguna. Editor Downcodes menyarankan Anda menggunakan ChatGPT dengan hati-hati dan memperhatikan pembaruan keamanan secara tepat waktu untuk menghindari potensi risiko.