LLM Finetuning
1.0.0
欢迎来到PEFT(预处理评估微调)项目存储库!该项目着重于使用Lora和拥抱Face的Transformers库有效地微调大型语言模型。
| 笔记本标题 | 描述 | COLAB徽章 |
|---|---|---|
| 1。有效地用洛拉和拥抱脸训练大型语言模型 | 详细信息和代码,用于使用洛拉和拥抱面孔进行大型语言模型的有效培训。 | |
| 2。在COLAB笔记本中微调您自己的Llama 2模型 | 使用COLAB对LLAMA 2模型进行微调指南。 | |
| 3。与Llama-7B模型的Guanaco Chatbot演示 | 由Llama-7B模型提供动力的聊天机器人演示的展示。 | |
| 4。PEFTFINETUNE-BLOOM-560M TAGGE | PEFT FINETUNE-BLOOM-560M TAGGE的项目详细信息。 | |
| 5。finetune_meta_opt-6-1b_model_bnb_peft | 使用PEFT和BLOOM-560M TAGGER对META OPT-6-1B模型进行鉴定的详细信息和指南。 | |
| 6. Finetune Falcon-7b带有BNB自我监督培训 | 使用BNB自我监督培训的固定Falcon-7b指南。 | |
| 7. flama2与Qlora | 使用PEFT库和QLORA方法微调Llama 2 7B预训练模型 | |
| 8.stable_vicuna13b_8bit_in_colab | 微调Vecuna指南13B_8BIT | |
| 9。gpt-neo-x-20b-bnb2bit_training | 指导如何使用BFLOAT16精度训练GPT-Neox-20b模型 | |
| 10。MPT-Instruct-30b型号培训 | MPT-Instruct-30b是Mosaicml的大型语言模型,该模型在短形式说明的数据集上进行了训练。它可用于遵循说明,回答问题并生成文本。 | |
| 11.rlhf_training_for_customdataset_for_anymodel | 如何使用自定义数据集对任何LLM模型上的RLHF培训培训模型 | |
| 12.fine_tuning_microsoft_phi_1_5b_on_custom_dataset(dialogStudio) | 如何通过Microsoft Phi 1.5训练模型,并通过自定义培训 | |
| 13。芬泰式openai gpt3.5涡轮增压 | 如何在您自己的数据上进行Finetune GPT 3.5 | |
| 14。使用自动辅助的填充Mistral-7b填充模型 | 如何使用自动辅助加工来征服Mistral-7b | |
| 15。抹布兰链教程 | 如何使用langchain使用抹布 | |
| 16.知识图LLM带有Langchain PDF问题回答 | 如何使用PDF问题回答构建知识图 | |
| 17.带有NEO4J和Langchain代理的OpenAI函数的文字到Knolwedge图 | 如何通过PDF问题回答从文本或PDF文档构建知识图 | |
| 18.使用Langchain和Openai将文档转换为知识图 | 本笔记本可以帮助您了解最简单的方法可以将任何文档转换为基于抹布的应用程序的知识图 | |
| 19。如何使用LLM训练1位模型? | 本笔记本可帮助您使用HQQ框架使用1位和2位量化方法培训模型 | |
| 20.Alpaca _+_ gemma2_9b_unsloth_2x_faster_finetuning | 本笔记本可帮助您使用Gemma2 9b培训模型 | |
| 21.使用MLFlow最佳行业实践的rag管道评估 | 本笔记本提供了使用MLFlow评估21抹布(检索到回答的21次抹布)的综合指南,并遵守最佳行业实践。 | |
22。使用mlflow.evaluate()评估一个拥抱的面部llm | 本笔记本提供了使用MLFlow_Evaluate评估拥抱面部语言学习模型(LLM)的综合指南。 |
欢迎捐款!如果您想为该项目做出贡献,请随时开放问题或提交拉动请求。
该项目已根据MIT许可获得许可。
由阿什(Ashish)用❤️创建