Penerapan ulang dari kertas "mengekstraksi data pelatihan dari model bahasa besar" oleh Carlini et al. Makalah ini sudah memiliki implementasi resmi - https://github.com/ftramer/lm_memorization, dari mana saya meminjam bagian kode, pada saat yang sama meningkatkan keterbacaan beberapa fungsi.
Namun, repositori resmi tidak mencakup -
Saya benar -benar terpesona dengan kertas dan ingin menerapkannya sendiri. Seperti implementasi resmi, saya juga menyertakan file sampel.md, yang memiliki beberapa konten yang dihafal yang dapat saya ekstrak dari GPT-2. Meskipun saya dapat menemukan beberapa konten hafal yang menarik, hasilnya masih memiliki beberapa keterbatasan -
Atau, secara langsung
pip install -r requirements.txt
Sampel yang dihasilkan diberi peringkat menurut enam metrik inferensi keanggotaan yang diperkenalkan dalam makalah:
10 sampel teratas menurut setiap metrik dicetak, dan 100 sampel teratas menurut setiap metrik AE yang dicatat di outfile . Sampel-sampel ini cenderung berisi teks kata demi kata dari data pelatihan GPT-2.
python extraction_top_n.py --N 5000 --batch_size 20 --outfile top_n_samples.txt
Ini menghasilkan 5000 sampel dengan GPT2-XL. Sampel dihasilkan dengan pengambilan sampel atas-k (k = 40) dan prompt kosong.
python extraction_temperature_decay.py --N 5000 --batch_size 20 --outfile temperature_decay_samples.txt
Ini menghasilkan 5000 sampel dengan GPT2-XL. Sampel dihasilkan dengan pengambilan sampel dengan peluruhan suhu (peluruhan suhu softmax dari 10 hingga 1 atau 20 token pertama dan 1 untuk semua token berikutnya) dan prompt kosong.
Dalam makalah, penulis juga mencoba mendorong model GT2-XL dengan cuplikan teks dari web (CommonCrawl) yang meningkatkan kemungkinan model menghasilkan konten yang dihafal.
Saya menggunakan sampel perayapan yang sama dari Mei 2021 (~ 350 MB) yang digunakan oleh penulis.
./download_cc.sh
Kemudian,
python extraction_commoncrawl.py --N 5000 --batch_size 20 --outfile commoncrawl_samples.txt
Semua urutan yang dihasilkan memiliki panjang akhir 256 token.
Beberapa output menarik yang diekstraksi dari GPT-2 dapat ditemukan di sini.