Alpaca 3B Fine Tuned
1.0.0
โครงการที่เกี่ยวข้องกับการทำงานระดับมืออาชีพ
ในโครงการนี้ฉันได้จัดทำรหัสและสมุดบันทึก colaboratory ที่อำนวยความสะดวกในกระบวนการปรับจูนของโมเดลพารามิเตอร์ Alpaca 3B ที่พัฒนาขึ้นที่มหาวิทยาลัยสแตนฟอร์ด โมเดลเฉพาะที่ได้รับการปรับแต่งมีพารามิเตอร์ประมาณ 3 พันล้านพารามิเตอร์ซึ่งเป็นหนึ่งในรุ่น Alpaca ขนาดเล็ก
โมเดลใช้ LORA ปรับระดับต่ำเพื่อทำงานด้วยทรัพยากรการคำนวณน้อยลงและพารามิเตอร์การฝึกอบรม เราใช้ bitsandbytes เพื่อตั้งค่าและทำงานในรูปแบบ 8 บิตเพื่อให้สามารถใช้กับ colaboratory นอกจากนี้ห้องสมุด PEFT จาก HuggingFace ยังใช้สำหรับการปรับแต่งโมเดล
พารามิเตอร์ไฮเปอร์:
เครดิตสำหรับโมเดลดั้งเดิม: Xinyang (Young) Geng และ Hao Liu จาก OpenLM Research
รุ่นปรับแต่ง: Ryanair/Alpaca-3b-fine-tuned (HuggingFace)