Alpaca 350M Fine Tuned
1.0.0
โครงการที่เกี่ยวข้องกับการทำงานระดับมืออาชีพ
ในโครงการนี้ฉันได้จัดทำรหัสและสมุดบันทึก colaboratory ที่อำนวยความสะดวกในกระบวนการปรับจูนของโมเดลพารามิเตอร์ ALPACA 350M ที่พัฒนาขึ้นที่มหาวิทยาลัยสแตนฟอร์ด รุ่นเฉพาะที่ได้รับการปรับแต่งมีพารามิเตอร์ประมาณ 350 ล้านพารามิเตอร์ซึ่งเป็นหนึ่งในรุ่น Alpaca ขนาดเล็ก (เล็กกว่ารุ่นที่ปรับแต่งก่อนหน้านี้ของฉัน)
โมเดลใช้ LORA ปรับระดับต่ำเพื่อทำงานด้วยทรัพยากรการคำนวณน้อยลงและพารามิเตอร์การฝึกอบรม เราใช้ bitsandbytes เพื่อตั้งค่าและทำงานในรูปแบบ 8 บิตเพื่อให้สามารถใช้กับ colaboratory นอกจากนี้ห้องสมุด PEFT จาก HuggingFace ยังใช้สำหรับการปรับแต่งโมเดล
พารามิเตอร์ไฮเปอร์:
เครดิตสำหรับรุ่นดั้งเดิม: Qiyuan GE
รุ่นปรับแต่ง: Ryanair/Alpaca-350m-fine-tuned (HuggingFace)