โครงการนี้มีจุดมุ่งหมายเพื่อปรับแต่งโมเดลภาษา Flan-T5 โดยใช้ห้องสมุด Transformers ของ Hugging Face โดยทำตามขั้นตอนเหล่านี้คุณสามารถปรับแต่งโมเดลและใช้เพื่อการอนุมาน
ก่อนเริ่มต้นใช้งานตรวจสอบให้แน่ใจว่าคุณมีสิ่งต่อไปนี้:
โคลนที่เก็บนี้ไปยังเครื่องในพื้นที่ของคุณ
git clone https://github.com/mltrev23/Fine-Tuning-LLaMA-2/ติดตั้งแพ็คเกจที่ต้องการโดยใช้คำสั่งต่อไปนี้:
pip install -r requirements.txtมีสี่วิธีในการปรับจูน:
การปรับแต่งสารเติมแต่ง : เพิ่มเลเยอร์ในการฝึกอบรม
python additive-fine-tuning.pyการปรับแต่งแบบเต็ม : ฝึกน้ำหนักทั้งหมดของแบบจำลอง
python full-fine-tuning.pyการปรับแต่งแบบเลือก : เลือกเลเยอร์เฉพาะของโมเดลดั้งเดิมเพื่อฝึกอบรม
python selective-fine-tuning.pyเทมเพลตปรับแต่ง : ใช้เทมเพลตที่กำหนดไว้ล่วงหน้าสำหรับการฝึกอบรม เทมเพลตสามารถแก้ไขได้ตามต้องการ
หากต้องการนำข้อมูลของคุณเองเพื่อปรับแต่งให้แก้ไขรหัสในสคริปต์ของคุณเพื่อโหลดชุดข้อมูลของคุณ นี่คือตัวอย่างของการโหลดชุดข้อมูลข้อความ:
from transformers import LineByLineTextDataset
dataset = LineByLineTextDataset ( tokenizer = tokenizer , file_path = 'datasets/bittensor.txt' , block_size = 128 )ในการดำเนินการอนุมานโดยใช้โมเดล FLAN-T5 ที่ปรับแต่งได้อย่างละเอียดคุณสามารถใช้สคริปต์ต่อไปนี้:
สร้างโดยใช้การส่งต่อ : สคริปต์นี้แสดงให้เห็นถึงการสร้างข้อความโดยใช้วิธีการส่งต่อ
python generate-using-forward.pyสคริปต์การอนุมานหลัก : สคริปต์นี้ให้วิธีที่ตรงไปตรงมาในการสร้างเอาต์พุตจากโมเดล
python main.py คุณสามารถแก้ไขข้อความอินพุตในไฟล์ main.py เพื่อทดสอบรุ่น:
input_text = [ "What is FAANG?" ]สิ่งนี้จะสร้างเอาต์พุตตามอินพุตที่ให้ไว้
อย่าลังเลที่จะแก้ไขสคริปต์ตามต้องการสำหรับงานและชุดข้อมูลเฉพาะของคุณ หากคุณพบปัญหาใด ๆ ให้ตรวจสอบเอกสารประกอบการกอดหรือขอความช่วยเหลือจากชุมชน
อย่าลังเลที่จะปรับส่วนใด ๆ เพิ่มเติมตามความต้องการเฉพาะของคุณ!