LLM Finetuning
1.0.0
Selamat datang di Repositori Proyek PEFT (pretraining-evaluasi-tuning)! Proyek ini berfokus pada model bahasa besar yang menyempurnakan secara efisien menggunakan perpustakaan Lora dan memeluk Face's Transformers.
| Judul notebook | Keterangan | Lencana Colab |
|---|---|---|
| 1. Latih model bahasa besar dengan lora dan wajah yang efisien | Detail dan Kode untuk Pelatihan Efisien Model Bahasa Besar Menggunakan Lora dan Memeluk Wajah. | |
| 2. Fine-Tune Model Llama 2 Anda Sendiri Dalam Colab Notebook | Panduan untuk menyempurnakan model Llama 2 Anda menggunakan Colab. | |
| 3. Demo Chatbot Guanaco dengan model Llama-7b | Showcase of a Chatbot Demo Didukung oleh model Llama-7b. | |
| 4. Peft Finetune-Bloom-560m-Tagger | Detail Proyek untuk Peft Finetune-Bloom-560m-Tagger. | |
| 5. finetune_meta_opt-6-1b_model_bnb_peft | Detail dan Panduan untuk Finetuning Meta Meta OPT-6-1B Menggunakan PEFT dan Bloom-560m-Tagger. | |
| 6.FINETUNE FALCON-7B dengan pelatihan BNB yang diawasi sendiri | Panduan untuk Finetuning Falcon-7b menggunakan pelatihan pengasuhan sendiri BNB. | |
| 7. Finetune llama2 dengan qlora | Panduan untuk menyempurnakan model llama 2 7b pra-terlatih menggunakan pustaka peft dan metode qlora | |
| 8.Stable_vicuna13b_8bit_in_colab | Panduan fine tuning vecuna 13b_8bit | |
| 9. GPT-NEO-X-20B-BNB2BIT_TRAING | Panduan Cara Melatih Model GPT-NEOX-20B menggunakan presisi bfloat16 | |
| 10. Pelatihan Model MPT-Instruct-30B | MPT-instruct-30B adalah model bahasa besar dari mosaicml yang dilatih pada dataset instruksi bentuk pendek. Ini dapat digunakan untuk mengikuti instruksi, menjawab pertanyaan, dan menghasilkan teks. | |
| 11.rlhf_training_for_customdataset_for_anymodel | Bagaimana melatih model dengan pelatihan RLHF pada model LLM apa pun dengan dataset khusus | |
| 12.fine_tuning_microsoft_phi_1_5b_on_custom_dataset (dialogstudio) | Bagaimana melatih model dengan pelatihan TRL SFT di Microsoft PHI 1.5 dengan kustom | |
| 13. Finetuning OpenAI GPT3.5 Turbo | Cara finetune gpt 3.5 pada data Anda sendiri | |
| 14. Finetuning MISTRAL-7B Finetuning Model Menggunakan Autotrain-Advanced | Cara finetune mistral-7b menggunakan autotrained-advanced | |
| 15. Tutorial Rag Langchain | Cara menggunakan kain menggunakan langchain | |
| 16. Grafik Pengetahuan LLM dengan pertanyaan PDF Langchain | Bagaimana Membangun Grafik Pengetahuan Dengan Jawaban Pertanyaan PDF | |
| 17. Teks ke grafik Knolwedge dengan fungsi OpenAi dengan Neo4j dan Langchain Agent Question Anjying | Bagaimana Membangun Grafik Pengetahuan Dari Teks atau Dokumen PDF Dengan Jawaban Pertanyaan PDF | |
| 18. Konversikan dokumen ke KnowledgeGraph menggunakan langchain dan openai | Buku catatan ini membantu Anda memahami betapa mudahnya cara Anda dapat mengubah dokumen apa pun menjadi knowledgraph untuk aplikasi berbasis kain Anda berikutnya | |
| 19. Bagaimana cara melatih model 1-bit dengan LLMS? | Buku catatan ini membantu Anda melatih model dengan metode kuantisasi 1-bit dan 2-bit menggunakan kerangka kerja HQQ | |
| 20.Alpaca _+_ GEMMA2_9B_UNSLOTH_2X_FASTER_FINETUNING | Buku catatan ini membantu Anda melatih model dengan Gemma2 9b | |
| 21. Evaluasi Pipa Rag Menggunakan MLFLOW Praktik Industri Terbaik | Buku catatan ini menyediakan panduan komprehensif untuk mengevaluasi pipa 21 Rag (Retrieve-Then-Anneber Generation) menggunakan MLFLOW, mematuhi praktik industri terbaik. | |
22. Evaluasi wajah pelukan llm dengan mlflow.evaluate() | Buku catatan ini memberikan panduan komprehensif tentang mengevaluasi model pembelajaran bahasa wajah (LLM) yang memeluk menggunakan MLFLOW_EVALUATE. |
Kontribusi dipersilakan! Jika Anda ingin berkontribusi pada proyek ini, jangan ragu untuk membuka masalah atau mengirimkan permintaan tarik.
Proyek ini dilisensikan di bawah lisensi MIT.
Dibuat dengan ❤️ oleh Ashish