LLM Finetuning
1.0.0
مرحبًا بكم في مستودع مشروع PEFT (صقل التقييم المسبق)! يركز هذا المشروع على صياغة نماذج لغوية كبيرة بكفاءة باستخدام مكتبة Lora و Lugging Face's Transformers.
| عنوان دفتر | وصف | شارة كولاب |
|---|---|---|
| 1. تدريب نماذج لغة كبيرة بكفاءة مع لورا ووجه المعانقة | التفاصيل والرمز للتدريب الفعال لنماذج اللغة الكبيرة باستخدام Lora و Ocging Face. | |
| 2. قم بضبط طراز Llama 2 الخاص بك في دفتر كولاب | دليل لضبط طراز Llama 2 باستخدام كولاب. | |
| 3. عرض Guanaco chatbot مع طراز Llama-7B | عرض لتوضيح chatbot مدعوم من طراز LLAMA-7B. | |
| 4 | تفاصيل المشروع لـ PEFT Finetune-Bloom-560M-Tagger. | |
| 5. Finetune_meta_opt-6-1b_model_bnb_peft | تفاصيل ودليل لتصنيع نموذج META OPT-6-1B باستخدام PEFT و Bloom-560M-Tagger. | |
| 6. Finetune Falcon-7B مع التدريب الخاضع للإشراف على BNB | دليل Finetuning Falcon-7B باستخدام التدريب الخاضع للإشراف على BNB. | |
| 7.finetune llama2 مع qlora | دليل لضبط النموذج الذي تم تدريبه مسبقًا Llama 2 7B باستخدام مكتبة PEFT وطريقة Qlora | |
| 8.stable_vicuna13b_8bit_in_colab | دليل ضبط دقيق Vecuna 13b_8bit | |
| 9. gpt-neo-x-20b-bnb2bit_training | توجيه كيفية تدريب نموذج GPT-NEOX-20B باستخدام دقة BFLOAT16 | |
| 10. MPT-instruct-30b Model Training | MPT-INSTRUCT-30B هو نموذج لغة كبير من MOSAICML يتم تدريبه على مجموعة بيانات من إرشادات الشكل القصير. يمكن استخدامه لمتابعة التعليمات والإجابة على الأسئلة وإنشاء النص. | |
| 11.rlhf_training_for_customdataset_for_anymodel | كيف تدرب نموذجًا مع تدريب RLHF على أي طراز LLM مع مجموعة بيانات مخصصة | |
| 12.fine_tuning_microsoft_phi_1_5b_on_custom_dataset (dialogstudio) | كيف تدرب نموذجًا مع تدريب TRL SFT على Microsoft PHI 1.5 مع Custom | |
| 13. Finetuning Openai GPT3.5 Turbo | كيفية Finetune GPT 3.5 على بياناتك الخاصة | |
| 14. | كيفية finetune mistral-7b باستخدام محفوظات ذاتية | |
| 15. خرقة لانجشين التعليمية | كيفية استخدام خرقة باستخدام Langchain | |
| 16. الرسم البياني المعرفة LLM مع إجابة Langchain PDF | كيفية بناء رسم بياني للمعرفة مع إجابة سؤال PDF | |
| 17. رسالة نصية إلى الرسم البياني Knolwedge مع وظيفة Openai مع سؤال Neo4J و Langchain Agent | كيفية بناء رسم بياني للمعرفة من مستند نص أو مستند PDF مع إجابة سؤال PDF | |
| 18. تحويل المستند إلى المعرفة باستخدام Langchain و Openai | يساعدك دفتر الملاحظات هذا على فهم مدى أسهل طريقة يمكنك تحويل أي مستنداتك إلى knowledgegraph لتطبيقك القادم القادم | |
| 19. كيفية تدريب نموذج 1 بت مع LLMS؟ | يساعدك دفتر الملاحظات هذا على تدريب نموذج بطريقة قياس كمية 1 بت و 2 بت باستخدام HQQ Framework | |
| 20.alpaca _+_ gemma2_9b_unsloth_2x_faster_finetuning | يساعدك دفتر الملاحظات هذا على تدريب نموذج باستخدام GEMMA2 9B | |
| 21. تقييم خط الأنابيب باستخدام أفضل ممارسة الصناعة MLFLOW | يوفر دفتر الملاحظات هذا دليلًا شاملاً لتقييم خط أنابيب 21 RAG (Retrieve-then-Asswer) باستخدام MLFLOW ، ملتصقًا بأفضل ممارسات الصناعة. | |
22. تقييم وجه المعانقة LLM مع mlflow.evaluate() | يوفر دفتر الملاحظات هذا دليلًا شاملاً لتقييم نموذج تعلم لغة الوجه المعانقة (LLM) باستخدام MLFLOW_EVALTY. |
المساهمات مرحب بها! إذا كنت ترغب في المساهمة في هذا المشروع ، فلا تتردد في فتح مشكلة أو تقديم طلب سحب.
هذا المشروع مرخص بموجب ترخيص معهد ماساتشوستس للتكنولوجيا.
تم إنشاؤها مع ❤ بواسطة Ashish