LLM Finetuning
1.0.0
歡迎來到PEFT(預處理評估微調)項目存儲庫!該項目著重於使用Lora和擁抱Face的Transformers庫有效地微調大型語言模型。
| 筆記本標題 | 描述 | COLAB徽章 |
|---|---|---|
| 1。有效地用洛拉和擁抱臉訓練大型語言模型 | 詳細信息和代碼,用於使用洛拉和擁抱面孔進行大型語言模型的有效培訓。 | |
| 2。在COLAB筆記本中微調您自己的Llama 2模型 | 使用COLAB對LLAMA 2模型進行微調指南。 | |
| 3。與Llama-7B模型的Guanaco Chatbot演示 | 由Llama-7B模型提供動力的聊天機器人演示的展示。 | |
| 4。 PEFTFINETUNE-BLOOM-560M TAGGE | PEFT FINETUNE-BLOOM-560M TAGGE的項目詳細信息。 | |
| 5。 finetune_meta_opt-6-1b_model_bnb_peft | 使用PEFT和BLOOM-560M TAGGER對META OPT-6-1B模型進行鑑定的詳細信息和指南。 | |
| 6. Finetune Falcon-7b帶有BNB自我監督培訓 | 使用BNB自我監督培訓的固定Falcon-7b指南。 | |
| 7. flama2與Qlora | 使用PEFT庫和QLORA方法微調Llama 2 7B預訓練模型 | |
| 8.stable_vicuna13b_8bit_in_colab | 微調Vecuna指南13B_8BIT | |
| 9。 gpt-neo-x-20b-bnb2bit_training | 指導如何使用BFLOAT16精度訓練GPT-Neox-20b模型 | |
| 10。 MPT-Instruct-30b型號培訓 | MPT-Instruct-30b是Mosaicml的大型語言模型,該模型在短形式說明的數據集上進行了訓練。它可用於遵循說明,回答問題並生成文本。 | |
| 11.rlhf_training_for_customdataset_for_anymodel | 如何使用自定義數據集對任何LLM模型上的RLHF培訓培訓模型 | |
| 12.fine_tuning_microsoft_phi_1_5b_on_custom_dataset(dialogStudio) | 如何通過Microsoft Phi 1.5訓練模型,並通過自定義培訓 | |
| 13。芬泰式openai gpt3.5渦輪增壓 | 如何在您自己的數據上進行Finetune GPT 3.5 | |
| 14。使用自動輔助的填充Mistral-7b填充模型 | 如何使用自動輔助加工來征服Mistral-7b | |
| 15。抹布蘭鏈教程 | 如何使用langchain使用抹布 | |
| 16.知識圖LLM帶有Langchain PDF問題回答 | 如何使用PDF問題回答構建知識圖 | |
| 17.帶有NEO4J和Langchain代理的OpenAI函數的文字到Knolwedge圖 | 如何通過PDF問題回答從文本或PDF文檔構建知識圖 | |
| 18.使用Langchain和Openai將文檔轉換為知識圖 | 本筆記本可以幫助您了解最簡單的方法可以將任何文檔轉換為基於抹布的應用程序的知識圖 | |
| 19。如何使用LLM訓練1位模型? | 本筆記本可幫助您使用HQQ框架使用1位和2位量化方法培訓模型 | |
| 20.Alpaca _+_ gemma2_9b_unsloth_2x_faster_finetuning | 本筆記本可幫助您使用Gemma2 9b培訓模型 | |
| 21.使用MLFlow最佳行業實踐的rag管道評估 | 本筆記本提供了使用MLFlow評估21抹布(檢索到回答的21次抹布)的綜合指南,並遵守最佳行業實踐。 | |
22。使用mlflow.evaluate()評估一個擁抱的面部llm | 本筆記本提供了使用MLFlow_Evaluate評估擁抱面部語言學習模型(LLM)的綜合指南。 |
歡迎捐款!如果您想為該項目做出貢獻,請隨時開放問題或提交拉動請求。
該項目已根據MIT許可獲得許可。
由阿什(Ashish)用❤️創建