
FELAFAX adalah kerangka kerja untuk pelatihan lanjutan dan menyempurnakan LLMS open source menggunakan XLA Runtime . Kami mengurus pengaturan runtime yang diperlukan dan menyediakan buku catatan Jupyter di luar kotak untuk memulai.
Tujuan kami di FELAFAX adalah untuk membangun infra untuk membuatnya lebih mudah untuk menjalankan beban kerja AI pada perangkat keras non-NVIDIA (TPU, AWS Felium, AMD GPU, dan Intel GPU).
Tambahkan dataset Anda, klik "Jalankan semua", dan Anda akan menjalankan sumber daya TPU gratis di Google Colab!
| Dukungan Felafax | Buku catatan gratis |
|---|---|
| Llama 3.1 (1b, 3b) |
Llama-3.1 Implementasi Jax
Llama-3/3.1 Pytorch XLA
Mulailah dengan menyempurnakan model Anda menggunakan Felafax CLI dalam beberapa langkah sederhana.
Mulailah dengan memasang CLI.
pip install pipx
pipx install felafax-cliKemudian, hasilkan token auth:
Akhirnya, otentikasi sesi CLI Anda menggunakan token Anda:
felafax-cli auth login --token < your_token > Pertama, hasilkan file konfigurasi default untuk fine-tuning. Perintah ini menghasilkan file config.yml di direktori saat ini dengan nilai hyperparameter default.
felafax-cli tune init-configKedua, perbarui file konfigurasi dengan hyperparameters Anda:
Kenop Huggingface:
Pipa Dataset dan Param Pelatihan:
batch_size , max_seq_length untuk digunakan untuk dataset fine-tuning.null jika Anda ingin trainig berjalan melalui seluruh dataset. Jika num_steps diatur ke angka, pelatihan akan berhenti setelah jumlah langkah yang ditentukan.learning_rate dan lora_rank untuk digunakan untuk fine-tuning.eval_interval adalah jumlah langkah antara evaluasi.Jalankan perintah ikuti untuk melihat daftar model dasar yang dapat Anda selesaikan, kami mendukung semua varian Llama-3.1 sampai sekarang.
felafax-cli tune start --help Sekarang, Anda dapat memulai proses penyempurnaan dengan model yang Anda pilih dari daftar di atas dan nama dataset dari Huggingface (seperti yahma/alpaca-cleaned ):
felafax-cli tune start --model < your_selected_model > --config ./config.yml --hf-dataset-id < your_hf_dataset_name >Contoh Perintah Untuk Membuat Anda Memulai:
felafax-cli tune start --model llama3-2-1b --config ./config.yml --hf-dataset-id yahma/alpaca-cleanedSetelah Anda memulai pekerjaan yang menyempurnakan, Felafax CLI menangani pemintalan TPU, menjalankan pelatihan, dan mengunggah model yang disesuaikan ke hub Huggingface.
Anda dapat melakukan streaming log realtime untuk memantau kemajuan pekerjaan penyempurnaan Anda:
# Use `<job_name>` with the job namethat you get after starting the fine-tuning.
felafax-cli tune logs --job-id < job_name > -fSetelah fine-tuning selesai, Anda dapat mencantumkan semua model yang disesuaikan: Anda:
felafax-cli model listAnda dapat memulai sesi terminal interaktif untuk mengobrol dengan model fine-tuned Anda:
# Replace `<model_id>` with model id from `model list` command you ran above.
felafax-cli model chat --model-id < model_id > CLI dipecah menjadi tiga kelompok komando utama:
tune : Untuk memulai/menghentikan pekerjaan penyesuaian.model : Untuk mengelola dan berinteraksi dengan model yang disesuaikan dengan Anda.files : Untuk mengunggah/melihat file YourDataset. Gunakan bendera --help untuk menemukan lebih banyak tentang grup perintah apa pun:
felafax-cli tune --helpKami baru-baru ini menyempurnakan model LLAMA3.1 405B pada 8XAMD MI300X GPU menggunakan JAX, bukan Pytorch. Jax's Advanced Sharding API memungkinkan kami untuk mencapai kinerja yang hebat. Lihatlah posting blog kami untuk mempelajari tentang pengaturan dan trik sharding yang kami gunakan.
Kami melakukan fine-tuning Lora dengan semua bobot model dan parameter Lora dalam presisi bfloat16, dan dengan peringkat lora 8 dan lora alpha 16:
Grafik pemanfaatan GPU dan pemanfaatan VRAM dapat ditemukan di bawah. Namun, kita masih perlu menghitung model flops pemanfaatan (MFU). Catatan: Kami tidak dapat menjalankan versi yang dikompilasi JIT dari model 405B karena infrastruktur dan kendala VRAM (kami perlu menyelidiki ini lebih lanjut). Seluruh pelatihan menjalankan dieksekusi dalam mode Jax Eager, jadi ada potensi signifikan untuk peningkatan kinerja.


Jika Anda memiliki pertanyaan, silakan hubungi kami di [email protected].