Proyek terkait pekerjaan profesional
Dalam proyek ini, saya telah memberikan kode dan buku catatan colaboratory yang memfasilitasi proses penyempurnaan dari model parameter Alpaca 3B yang awalnya dikembangkan di Stanford University. Model khusus yang disempurnakan memiliki sekitar 3 miliar parameter, yang merupakan salah satu model alpaka yang lebih kecil.
Model ini menggunakan adaptasi rendah LORA untuk berjalan dengan lebih sedikit sumber daya komputasi dan parameter pelatihan. Kami menggunakan Bitsandbytes untuk mengatur dan menjalankan dalam format 8-bit sehingga dapat digunakan pada colaboratory. Selain itu, perpustakaan PEFT dari Huggingface digunakan untuk menyempurnakan model.
Parameter hiper:
Kredit untuk Model Asli: Xinyang (Young) Geng dan Hao Liu dari OpenLM Research
Model Fine-Tuned: Ryanair/Alpaca-3b-Fine-Tuned (Huggingface)