LLM Finetuning
1.0.0
Willkommen beim Peft-Projekt-Repository (Vorab-Evaluation Fine-Tuning)! Dieses Projekt konzentriert sich auf effizient feine Großsprachmodelle unter Verwendung von Lora und der Transformers Library von Face.
| Notebook -Titel | Beschreibung | Colab Abzeichen |
|---|---|---|
| 1. Effizient große Sprachmodelle mit Lora und umarmtem Gesicht trainieren | Details und Code für effizientes Training von großsprachigen Modellen mit Lora und dem Umarmungsgesicht. | |
| 2. FEINIGE TUNDEN SIE IHRES EIGENES LAMA 2 MODELL in einem Colab-Notizbuch | Leitfaden zur Feinabstimmung Ihres Lama 2-Modells mit Colab. | |
| 3.. Guanaco Chatbot-Demo mit Lama-7b-Modell | Präsentation einer Chatbot-Demo, die vom Lama-7b-Modell angetrieben wird. | |
| 4. PEFT FINETUNE-BLOOM-560M-TAGER | Projektdetails für PEFT FEDUNE-BLOOM-560M-TAGER. | |
| 5. FINETUNE_META_OPT-6-1B_MODEL_BNB_PEFT | Details und Leitfaden für die Fülle des Meta Opt-6-1B-Modells mit PEFT und Bloom-560m-Tagger. | |
| 6.Finetune Falcon-7b mit BNB Self Overvised Training | Leitfaden für die Finetuning Falcon-7b unter Verwendung von BNB-Selbstversorgungstraining. | |
| 7.Finetune LLAMA2 mit Qlora | Leitfaden zur Feinabstimmung des LLAMA 2 7B-Vorausgebildeten Modells mit der PEFT-Bibliothek und der Qlora-Methode | |
| 8.Stable_vicuna13b_8bit_in_colab | Leitfaden der Feinabstimmung Vecuna 13b_8bit | |
| 9. GPT-NEO-X-20B-BNB2BIT_TRINING | Leitfaden, wie Sie das GPT-NEOX-20B-Modell mithilfe von Bfloat16-Präzision trainieren | |
| 10. MPT-Instruct-30b Modelltraining | MPT-Instruct-30b ist ein großes Sprachmodell von Mosaicml, das auf einem Datensatz mit kurzfristigen Anweisungen trainiert wird. Es kann verwendet werden, um Anweisungen zu befolgen, Fragen zu beantworten und Text zu generieren. | |
| 11.RLHF_TRINING_FOR_CUSTOMDATASET_FOR_ANYMODEL | Wie trainieren Sie ein Modell mit RLHF -Training auf jedem LLM -Modell mit benutzerdefiniertem Datensatz | |
| 12.Fine_tuning_microsoft_phi_1_5b_on_custom_dataset (Dialogstudio) | Wie trainieren Sie ein Modell mit TRL SFT -Training auf Microsoft Phi 1.5 mit Custom | |
| 13. | So finanzieren Sie GPT 3.5 auf Ihren eigenen Daten | |
| 14. Finetuning Mistral-7b-Finetuning-Modell mit Autotrain-Advanced | Wie man Mistral-7b mit autoktrinärer Advanced beendet | |
| 15. Rag Langchain Tutorial | So verwenden Sie Lappen mit Langchain | |
| 16. Knowledge Graph LLM mit Langchain PDF -Frage Beantwortung | So erstellen Sie Wissensgrafik mit PDF -Frage -Beantwortung | |
| 17. Text an Knolwedge -Graph mit OpenAI -Funktion mit Neo4j und Langchain Agent Frage Beantwortung | So erstellen Sie Wissensgrafik aus Text- oder PDF -Dokument mit PDF -Frage -Beantwortung | |
| 18. Konvertieren Sie das Dokument mit Langchain und OpenAI in Knowledgegraph | Dieses Notebook ist Ihnen helfen zu verstehen | |
| 19. Wie trainiere man ein 1-Bit-Modell mit LLMs? | Dieses Notebook hilft Ihnen dabei, ein Modell mit 1-Bit- und 2-Bit-Quantisierungsmethode mithilfe des HQQ-Frameworks zu trainieren | |
| 20.Alpaca _+_ Gemma2_9b_unsloth_2x_faster_finetuning | Dieses Notizbuch hilft Ihnen, ein Modell mit GEMMA2 9B zu trainieren | |
| 21.Rag -Pipeline -Bewertung mit MLFlow Best Industry Practice | Dieses Notizbuch bietet einen umfassenden Leitfaden zur Bewertung der 21 RAG-Pipeline (Abruf-Then-Antwort-Generation) mithilfe von MLFlow und haftet an den besten Branchenpraktiken. | |
22. Bewerten Sie ein umarmendes Gesicht mit mlflow.evaluate() | Dieses Notizbuch bietet einen umfassenden Leitfaden zur Bewertung eines Umarmungs -Gesichts -Lernmodells (LLM) unter Verwendung von mlflow_valuate. |
Beiträge sind willkommen! Wenn Sie zu diesem Projekt beitragen möchten, können Sie ein Problem eröffnen oder eine Pull -Anfrage abgeben.
Dieses Projekt ist unter der MIT -Lizenz lizenziert.
Erstellt mit ❤️ von Ashish