repo นี้มีรหัสเพื่อปรับแต่งโมเดลภาษาขนาดใหญ่ (LLMs) ด้วยชุดข้อมูลคำพูดที่มีชื่อเสียง
วิธีการที่ได้รับการสนับสนุนของ finetuning คือ Deepspeed, Lora หรือ Qlora
เดิมที repo ดาวน์โหลดและแปลงน้ำหนักรุ่นสำหรับ GPTJ เมื่อยังไม่ได้เพิ่มลงในแพ็คเกจ HuggingFace Transformer รหัสนั้นยังสามารถเห็นได้ภายใต้สาขา original_youtube _youtube
/quotes_dataset มีชุดข้อมูลที่จัดรูปแบบอย่างเหมาะสมสำหรับการปรับแต่ง ดู Repo สำหรับการสร้างชุดข้อมูลนี้ที่นี่
/finetuning_repo มีรหัสดั้งเดิมจาก repo ที่นี่ที่ฉันได้ปรับเปลี่ยนให้ทำงานกับรุ่นเพิ่มเติมและด้วยวิธีการเพิ่มเติม
หากต้องการความช่วยเหลือจากมืออาชีพที่ได้รับค่าตอบแทนที่สามารถใช้ได้ผ่านอีเมลนี้
ดูวิดีโอเก่าสำหรับรหัส repo ดั้งเดิมที่นี่สำหรับการสอนวิดีโอ
วิดีโอที่อัปเดตเพิ่มเติมสำหรับการใช้โมเดล HuggingFace สามารถดูได้ที่นี่
ไปที่สาขา original_youtube คือคุณต้องการดูรหัส แต่ฉันขอแนะนำให้คุณใช้วิธีการที่ทันสมัยมากขึ้น
คำแนะนำที่อัปเดตใช้ Nvidia-Docker เพื่อทำให้ปวดหัวออกจากกระบวนการส่วนใหญ่
หากคุณมีระบบ Linux 64 บิตและต้องการไดรเวอร์สำหรับ A100 คุณสามารถเรียกใช้คำสั่งเช่นนี้เพื่อตั้งค่า
wget https://us.download.nvidia.com/tesla/515.86.01/NVIDIA-Linux-x86_64-515.86.01.run
จากนั้นคุณจะเรียกใช้โปรแกรมที่ดาวน์โหลดด้วย sudo
chmod 777 NVIDIA-Linux-x86_64-515.86.01.run
sudo ./NVIDIA-Linux-x86_64-515.86.01.run
build_image.sh หากคุณได้รับข้อผิดพลาดเกี่ยวกับการไม่สามารถค้นหาอิมเมจนักเทียบท่าให้อัปเดตเป็นรุ่น CUDA ที่ใหม่กว่า ภาพจะเลิกใช้เป็นระยะ จากนั้นเปิด PR เพื่อให้คุณสามารถแก้ไขปัญหานี้ให้กับผู้อื่นได้ การสร้างภาพนักเทียบท่าอาจใช้เวลาหลายนาทีrun_image.sh สคริปต์นี้เรียกใช้อิมเมจนักเทียบท่าที่เพิ่งสร้างและติดตั้งไดเรกทอรีปัจจุบันไปที่ /workspace ภายในคอนเทนเนอร์ Docker GPU ทั้งหมดในระบบจะถูกส่งผ่าน นอกจากนี้เพื่อป้องกันการดาวน์โหลดโมเดลในแต่ละครั้งที่คอนเทนเนอร์นี้ทำงานอยู่. .cache ของคุณจะถูกส่งผ่าน