LLM Finetuning
1.0.0
Bem-vindo ao repositório do projeto Peft (pré-avaliação de avaliação de avaliação)! Este projeto se concentra em modelos de linguagem de grande ajuste com eficiência, usando Lora e abraçando a Biblioteca Transformers do rosto.
| Título do notebook | Descrição | Crachá de colab |
|---|---|---|
| 1. Treinar com eficiência modelos de idiomas com Lora e abraçar o rosto | Detalhes e código para treinamento eficiente de grandes modelos de linguagem usando Lora e abraçando o rosto. | |
| 2. Tune seu próprio modelo Llama 2 em um notebook colab | Guia para ajustar seu modelo LLAMA 2 usando o COLAB. | |
| 3. Demonstração de chatbot de Guanaco com o modelo llama-7b | Mostra de uma demonstração de chatbot alimentada pelo modelo LLAMA-7B. | |
| 4. Peft Finetune-Bloom-560m-Tagger | Detalhes do projeto para Peft Finetune-Bloom-560m-Tagger. | |
| 5. Finetune_Meta_Opt-6-1b_model_bnb_peft | Detalhes e guia para o Finetuning o modelo Meta Opt-6-1B usando PEFT e BLOOM-560M-TAGGER. | |
| 6.FineTune Falcon-7b com treinamento auto-supervisionado BNB | Guia para o Finetuning Falcon-7b usando o treinamento auto-supervisionado do BNB. | |
| 7.FineTune llama2 com qlora | Guia para ajustar o modelo Llama 2 7B pré-treinado usando a biblioteca PEFT e o método Qlora | |
| 8.stable_vicuna13b_8bit_in_colab | Guia de ajuste fino Vecuna 13b_8bit | |
| 9. GPT-NEO-X-20B-BNB2BIT_TRAINING | Guia como treinar o modelo GPT-Neox-20B usando a precisão BFLOAT16 | |
| 10. Treinamento do modelo MPT-Instruct-30b | O MPT-Instruct-30B é um modelo de idioma grande do MosaicML que é treinado em um conjunto de dados de instruções de formato curto. Pode ser usado para seguir as instruções, responder a perguntas e gerar texto. | |
| 11.rlhf_training_for_customdataset_for_anymodel | Como treinar um modelo com treinamento RLHF em qualquer modelo LLM com conjunto de dados personalizado | |
| 12.fine_tuning_microsoft_phi_1_5b_on_custom_dataset (dialogStudio) | Como treinar um modelo com treinamento TRL SFT no Microsoft Phi 1.5 com costume | |
| 13. Finetuning OpenAI Gpt3.5 Turbo | Como Finetune GPT 3.5 em seus próprios dados | |
| 14. Modelo Finetuning Mistral-7B Finetuning usando o AutoTrain-Advanced | Como Finetune Mistral-7b usando o AutoTranced-Advanced | |
| 15. Tutorial de Rag Langchain | Como usar o trapo usando Langchain | |
| 16. Knowledge Graph LLM com Langchain PDF Respondendo | Como construir o gráfico de conhecimento com a resposta de perguntas em PDF | |
| 17. Texto para Knolwedge Gráfico com a função OpenAI com Neo4J e Langchain Agent Pergunta Responder | Como criar o gráfico de conhecimento a partir de texto ou documento em PDF com resposta a perguntas em PDF | |
| 18. Converta o documento em KnowledgeGraph usando Langchain e Openai | Este notebook é ajudá -lo a entender como você pode converter seus documentos mais fáceis para o seu próximo aplicativo baseado em trapo | |
| 19. Como treinar um modelo de 1 bit com LLMS? | Este notebook é ajudado a treinar um modelo com método de quantização de 1 bit e 2 bits usando a estrutura HQQ | |
| 20.alpaca _+_ gemma2_9b_unsloth_2x_faster_finetuning | Este caderno é ajudá -lo a treinar um modelo com gemma2 9b | |
| 21. Avaliação de oleoduto RAG usando a melhor prática da indústria MLFlow | Este notebook fornece um guia abrangente para avaliar o pipeline de 21 RAG (Recuperar-se-Responsação) usando MLFlow, aderindo às melhores práticas do setor. | |
22. Avalie um rosto abraçado llm com mlflow.evaluate() | Este notebook fornece um guia abrangente para avaliar um Modelo de Aprendizagem de Linguagem de Facos (LLM) de Hugging (LLM) usando MLFlow_Evaluate. |
As contribuições são bem -vindas! Se você quiser contribuir com este projeto, sinta -se à vontade para abrir um problema ou enviar uma solicitação de tração.
Este projeto está licenciado sob a licença do MIT.
Criado com ❤️ por Ashish