LLM Finetuning
1.0.0
ยินดีต้อนรับสู่ที่เก็บโครงการ Peft (การปรับแต่งการคาดการณ์ล่วงหน้า)! โครงการนี้มุ่งเน้นไปที่แบบจำลองภาษาขนาดใหญ่ที่ปรับแต่งได้อย่างมีประสิทธิภาพโดยใช้ LORA และ Hugging Face's Transformers Library
| ชื่อสมุดบันทึก | คำอธิบาย | ป้าย Colab |
|---|---|---|
| 1. ฝึกฝนโมเดลภาษาขนาดใหญ่ด้วย Lora และกอดอย่างมีประสิทธิภาพ | รายละเอียดและรหัสสำหรับการฝึกอบรมที่มีประสิทธิภาพของโมเดลภาษาขนาดใหญ่โดยใช้ LORA และ Hugging Face | |
| 2. ปรับแต่งรุ่น Llama 2 ของคุณเองในสมุดบันทึก colab | คำแนะนำเกี่ยวกับการปรับแต่งรุ่น Llama 2 ของคุณโดยใช้ colab | |
| 3. การสาธิต Guanaco Chatbot พร้อมโมเดล LLAMA-7B | Showcase ของการสาธิต chatbot ขับเคลื่อนโดยรุ่น LLAMA-7B | |
| 4. Peft Finetune-Bloom-560m-tagger | รายละเอียดโครงการสำหรับ Peft Finetune-Bloom-560m-tagger | |
| 5. FINETUNE_META_OPT-6-1B_MODEL_BNB_PEFT | รายละเอียดและคำแนะนำสำหรับการปรับแต่งรุ่น Meta OPT-6-1B โดยใช้ PEFT และ Bloom-560M-tagger | |
| 6. Finetune Falcon-7b พร้อมการฝึกอบรมดูแลตัวเอง BNB | คู่มือสำหรับ Finetuning Falcon-7b โดยใช้การฝึกอบรมผู้ดูแลตนเอง BNB | |
| 7.Finetune Llama2 กับ Qlora | คำแนะนำในการปรับแต่งรูปแบบ LLAMA 2 7B ที่ผ่านการฝึกอบรมมาก่อนโดยใช้ห้องสมุด PEFT และวิธี Qlora | |
| 8. Stable_vicuna13b_8bit_in_colab | คู่มือการปรับจูนดี vecuna 13b_8bit | |
| 9. GPT-NEO-X-20B-BNB2BIT_TRAINING | แนะนำวิธีการฝึกอบรมรุ่น GPT-NEOX-20B โดยใช้ความแม่นยำ BFLOAT16 | |
| 10. การฝึกอบรมรุ่น MPT-Instruct-30B | MPT-Instruct-30B เป็นรูปแบบภาษาขนาดใหญ่จาก MosaicML ที่ได้รับการฝึกฝนในชุดข้อมูลของคำแนะนำแบบฟอร์มสั้น ๆ สามารถใช้เพื่อทำตามคำแนะนำตอบคำถามและสร้างข้อความ | |
| 11.rlhf_training_for_customdataset_for_anymodel | วิธีฝึกอบรมแบบจำลองด้วยการฝึกอบรม RLHF ในรุ่น LLM ใด ๆ ที่มีชุดข้อมูลที่กำหนดเอง | |
| 12.fine_tuning_microsoft_phi_1_5b_on_custom_dataset (Dialogstudio) | วิธีฝึกอบรมแบบจำลองด้วยการฝึกอบรม TRL SFT บน Microsoft PHI 1.5 ด้วย Custom | |
| 13. Finetuning Openai GPT3.5 Turbo | วิธีการ finetune gpt 3.5 ด้วยข้อมูลของคุณเอง | |
| 14. รูปแบบ finetuning finetuning mistral-7b โดยใช้ Autotrain-Advanced | วิธีการ finetune mistral-7b โดยใช้ Autotrained-Advanced | |
| 15. การสอน Rag Langchain | วิธีใช้ผ้าขี้ริ้วโดยใช้ langchain | |
| 16. กราฟความรู้ LLM พร้อมคำตอบคำถาม Langchain PDF | วิธีสร้างกราฟความรู้ด้วยการตอบคำถาม PDF | |
| 17. ข้อความถึงกราฟ knolwedge พร้อมฟังก์ชั่น openai พร้อมคำถาม Neo4J และ Langchain Agent ตอบคำถาม | วิธีการสร้างกราฟความรู้จากข้อความหรือเอกสาร PDF ด้วยการตอบคำถาม PDF | |
| 18. แปลงเอกสารเป็นความรู้โดยใช้ Langchain และ Openai | สมุดบันทึกนี้ช่วยให้คุณเข้าใจว่าวิธีที่ง่ายที่สุดที่คุณสามารถแปลงเอกสารใด ๆ ของคุณเป็นความรู้สำหรับแอปพลิเคชัน RAG ต่อไปของคุณ | |
| 19. วิธีฝึกอบรมแบบ 1 บิตกับ LLMS? | สมุดบันทึกนี้ช่วยให้คุณฝึกอบรมแบบจำลองด้วยวิธีการหาปริมาณแบบ 1 บิตและ 2 บิตโดยใช้ HQQ Framework | |
| 20.alpaca _+_ Gemma2_9b_unsloth_2x_faster_finetuning | สมุดบันทึกนี้ช่วยให้คุณฝึกอบรมแบบจำลองด้วย Gemma2 9b | |
| 21. การประเมินท่อส่งข้อมูลโดยใช้การปฏิบัติที่ดีที่สุดในอุตสาหกรรม MLFlow | สมุดบันทึกนี้ให้คำแนะนำที่ครอบคลุมในการประเมินท่อส่ง RAG (Retrieve-Then-Answer Generation) 21 ครั้งโดยใช้ MLFlow ซึ่งยึดติดกับแนวทางปฏิบัติของอุตสาหกรรมที่ดีที่สุด | |
22. ประเมินหน้ากอด LLM ด้วย mlflow.evaluate() | สมุดบันทึกนี้ให้คำแนะนำที่ครอบคลุมเกี่ยวกับการประเมินรูปแบบการเรียนรู้ภาษาใบหน้าแบบกอด (LLM) โดยใช้ mlflow_evaluate |
ยินดีต้อนรับ! หากคุณต้องการมีส่วนร่วมในโครงการนี้อย่าลังเลที่จะเปิดปัญหาหรือส่งคำขอดึง
โครงการนี้ได้รับใบอนุญาตภายใต้ใบอนุญาต MIT
สร้างขึ้นด้วย❤โดย Ashish