fine-tune-gpt-35-turbo
Langkah pelatihan
# STEP 1:
python prepare_data.py --raw_data=./test/raw_data/qa.txt --base_system_instruction=./test/raw_data/fine_tune_instructions_base.json --output=./data
# STEP 2:
python json2jsonl.py --input=./data --output=./data
# STEP 3:
python fine_tune.py --action=check --json_dir=./data
# STEP 4:
python fine_tune.py --action=upload --jsonl_file=./data/fine_tune_instructions.jsonl
# STEP 5:
python fine_tune.py --action=start
# STEP 6:
python fine_tune.py --action=status
Batasan && peringatan
- Saat ini kita hanya dapat menyempurnakan GPT-3.5-Turbo (GPT-3.5-Turbo-0613 secara khusus) yang memiliki konteks 4K.
- Biaya fine-tuning itu sendiri cukup rendah ($ 0,008 untuk 1K token dataset), tetapi masalah utamanya adalah biaya inferensi-karena model yang disempurnakan hanya akan digunakan oleh Anda, inferensi akan berharga 8 kali lebih banyak dibandingkan dengan turbo 4K normal, yang membuatnya hampir setengah mahal seperti GPT-4.
- Model fine-tune tidak dapat dibagikan antara berbagai akun openai, jadi satu-satunya cara untuk memiliki fine-tune "sama" adalah dengan menjalankan pekerjaan fine-tune pada semua akun terpisah yang ingin Anda gunakan.
- Dataset untuk fine-tune harus 100% SFW, karena, mengutip OpenAI-"Data pelatihan penyempurnaan disahkan melalui API moderasi kami dan sistem moderasi bertenaga GPT-4 untuk mendeteksi data pelatihan yang tidak aman yang bertentangan dengan standar keselamatan kami". API moderasi cukup ketat, jadi hal -hal seperti "mengisap di jari" tidak akan lewat.
- Pemilik akun akan mendapatkan email saat fine-tune selesai.
Referensi
- Dokter menyempurnakan oleh Openai