Proyek terkait pekerjaan profesional
Dalam proyek ini, saya telah memberikan kode dan buku catatan colaboratory yang memfasilitasi proses penyempurnaan dari model parameter 350m ALPACA yang awalnya dikembangkan di Stanford University. Model khusus yang disempurnakan memiliki sekitar 350 juta parameter, yang merupakan salah satu model alpaka yang lebih kecil (lebih kecil dari model fine-tuned saya sebelumnya).
Model ini menggunakan adaptasi rendah LORA untuk berjalan dengan lebih sedikit sumber daya komputasi dan parameter pelatihan. Kami menggunakan Bitsandbytes untuk mengatur dan menjalankan dalam format 8-bit sehingga dapat digunakan pada colaboratory. Selain itu, perpustakaan PEFT dari Huggingface digunakan untuk menyempurnakan model.
Parameter hiper:
Kredit untuk Model Asli: Qiyuan GE
Model Fine-Tuned: Ryanair/Alpaca-350m-Fine-Tuned (Huggingface)