LLM Finetuning
1.0.0
¡Bienvenido al repositorio de proyectos PEFT (prevaluación previa para la evaluación)! Este proyecto se centra en ajustar los modelos de idiomas grandes de manera eficiente utilizando Lora y Hugging Face's Transformers Library.
| Título de cuaderno | Descripción | Insignia de colab |
|---|---|---|
| 1. Entrenar eficientemente modelos de idiomas grandes con Lora y cara de abrazo | Detalles y código para una capacitación eficiente de modelos de idiomas grandes que usan Lora y abrazando la cara. | |
| 2. Modelo FINAL TU PROPIO LLAMA 2 en un cuaderno de colab | Guía para ajustar su modelo Llama 2 usando Colab. | |
| 3. Guanaco Chatbot Demo con Llama-7B Model | Showcase de una demostración de chatbot impulsada por el modelo LLAMA-7B. | |
| 4. Peft Finetune-Bloom-560m-Tagger | Detalles del proyecto para Peft Finetune-Bloom-560m-Tagger. | |
| 5. Finetune_meta_opt-6-1b_model_bnb_peft | Detalles y guía para el sintonización del modelo MetaPt-6-1B utilizando PEFT y Bloom-560m-Tagger. | |
| 6.Finetune Falcon-7B con BNB Self Supervised Training | Guía para el fallcon-7b de Finetuning utilizando el entrenamiento auto-supervisado de BNB. | |
| 7.Finetune Llama2 con Qlora | Guía para ajustar el modelo de Llama 2 7B Pretrado utilizando la Biblioteca PEFT y el método Qlora | |
| 8.stable_vicuna13b_8bit_in_colab | Guía de ajuste fino Vecuna 13b_8bit | |
| 9. GPT-Neo-X-20B-BNB2BIT_TRINING | Guía cómo entrenar el modelo GPT-NOOX-20B usando BFLOAT16 Precision | |
| 10. Entrenamiento modelo MPT-Instructo-30B | MPT-INSTRUCT-30B es un modelo de lenguaje grande de MOSAICML que está capacitado en un conjunto de datos de instrucciones de forma corta. Se puede usar para seguir instrucciones, responder preguntas y generar texto. | |
| 11.rlhf_training_for_customdataset_for_anymodel | Cómo entrenar un modelo con capacitación RLHF en cualquier modelo LLM con conjunto de datos personalizado | |
| 12.fine_tuning_microsoft_phi_1_5b_on_custom_dataset (DialogStudio) | Cómo entrenar un modelo con capacitación TRL SFT en Microsoft Phi 1.5 con personalizado | |
| 13. Finetuning OpenAI GPT3.5 Turbo | Cómo Finetune GPT 3.5 en sus propios datos | |
| 14. Modelo Finetuning Mistral-7B Finetuning utilizando Autotrain-Advanced | Cómo finetar Mistral-7B usando AutoTrained-Advanced | |
| 15. Tutorial de Rag Langchain | Cómo usar trapo usando langchain | |
| 16. Knowledge Graph LLM con Langchain PDF Pregunta Respuesta | Cómo construir el gráfico de conocimiento con la respuesta a las preguntas en PDF | |
| 17. Graph de texto a Knolwedge con función OpenAI con Neo4J y Langchain Agent Pregunta Respuesta | Cómo crear un gráfico de conocimiento a partir de texto o documento PDF con respuesta a las preguntas en PDF | |
| 18. Convierta el documento a KnowledgeGraph usando Langchain y OpenAI | Este cuaderno le ayuda a comprender cuán más fácil puede convertir sus documentos en KnowledgeGraph para su próxima aplicación basada en el trapo. | |
| 19. ¿Cómo entrenar un modelo de 1 bits con LLM? | Este cuaderno le ayuda a capacitar un modelo con un método de cuantización de 1 bits y 2 bits utilizando el marco HQQ | |
| 20.alpaca _+_ gemma2_9b_unsloth_2x_faster_finetuning | Este cuaderno te ayuda a entrenar un modelo con Gemma2 9B | |
| 21. Evaluación de la tubería de arrastre utilizando la mejor práctica de la industria de MLFLOW | Este cuaderno proporciona una guía completa para evaluar la tubería 21 RAG (recuperar la generación de la respuesta) utilizando MLFLOW, que se adhiere a las mejores prácticas de la industria. | |
22. Evalúe una cara de abrazo LLM con mlflow.evaluate() | Este cuaderno proporciona una guía completa sobre la evaluación de un Modelo de aprendizaje de lenguaje facial de abrazos (LLM) utilizando mlflow_evaluate. |
¡Las contribuciones son bienvenidas! Si desea contribuir a este proyecto, no dude en abrir un problema o enviar una solicitud de extracción.
Este proyecto tiene licencia bajo la licencia MIT.
Creado con ❤️ por Ashish