LLM Finetuning
1.0.0
PEFT (Pretraining-Evaluation Fine Tuning) 프로젝트 저장소에 오신 것을 환영합니다! 이 프로젝트는 LORA와 Hugging Face의 Transformers 라이브러리를 사용하여 대형 언어 모델을 효율적으로 미세 조정하는 데 중점을 둡니다.
| 노트북 제목 | 설명 | 콜랩 배지 |
|---|---|---|
| 1. Lora와 포옹 얼굴로 대형 언어 모델을 효율적으로 훈련 | Lora 및 Hugging Face를 사용하여 대형 언어 모델의 효율적인 교육을위한 세부 사항 및 코드. | |
| 2. Colab 노트북에서 자신의 llama 2 모델을 미세 조정하십시오. | Colab을 사용하여 Llama 2 모델을 미세 조정하는 안내서. | |
| 3. LLAMA-7B 모델을 사용한 Guanaco Chatbot 데모 | LLAMA-7B 모델로 구동되는 챗봇 데모 쇼케이스. | |
| 4. PEFT FINETUNE-BLOOM-560M-TAGGER | PEFT FINETUNE-BLOOM-560M-TAGGER의 프로젝트 세부 사항. | |
| 5. FINETUNE_META_OPT-6-1B_MODEL_BNB_PEFT | PEFT 및 BLOOM-560M 태그기를 사용하여 Meta OPT-6-1B 모델을 미세 조정하기위한 세부 사항 및 가이드. | |
| 6. BNB 자체 감독 훈련을 가진 Falcon-7b | BNB 자체 감독 교육을 사용하여 Falcon-7B를위한 가이드. | |
| 7. Qlora와 함께 llama2 | PEFT 라이브러리 및 QLORA 방법을 사용하여 LLAMA 2 7B 미리 훈련 된 모델 안내서 | |
| 8.table_vicuna13b_8bit_in_colab | 미세 튜닝 가이드 Vecuna 13B_8BIT | |
| 9. GPT-NEO-X-20B-BNB2BIT_TRAINING | Bfloat16 정밀도를 사용하여 GPT-NEOX-20B 모델을 훈련시키는 방법 안내 | |
| 10. MPT-Instruct-30B 모델 교육 | MPT-Instruct-30B는 단편 지침의 데이터 세트에 대한 교육을받은 MosaICML의 대형 언어 모델입니다. 지침을 따르고 질문에 답변하고 텍스트를 생성하는 데 사용될 수 있습니다. | |
| 11.RLHF_TRAINING_FOR_CUSTOMDATASET_FOR_ANYMODEL | 사용자 정의 데이터 세트로 모든 LLM 모델에서 RLHF 교육으로 모델을 훈련시키는 방법 | |
| 12.fine_tuning_microsoft_phi_1_5B_ON_CUSTOM_DATASET (DialogStudio) | Microsoft Phi 1.5에서 TRL SFT 교육으로 모델을 훈련하는 방법 사용자 정의 | |
| 13. Finetuning Openai Gpt3.5 터보 | 자체 데이터에서 GPT 3.5를 미세한 방법 | |
| 14. Autotrain-Advanced를 사용한 Mistral-7B Finetuning 모델 | 자동 조정 된 진정을 사용하여 Mistral-7b를 미세한 방법 | |
| 15. Rag Langchain 튜토리얼 | Langchain을 사용하여 Rag를 사용하는 방법 | |
| 16. Langchain PDF 질문 답변을 가진 지식 그래프 LLM | PDF 질문 답변으로 지식 그래프를 구축하는 방법 | |
| 17. Neo4J 및 Langchain 에이전트 질문에 대한 Openai 기능을 갖춘 텍스트 텍스트 knolwedge 그래프 | PDF 질문 답변으로 텍스트 또는 PDF 문서에서 지식 그래프를 작성하는 방법 | |
| 18. Langchain 및 OpenAi를 사용하여 문서를 Knowledgegraph로 변환 | 이 노트북은 다음 래그 기반 애플리케이션을 위해 모든 문서를 KnowledgeGraph로 어떻게 전환 할 수 있는지 이해하는 데 도움이됩니다. | |
| 19. LLM으로 1 비트 모델을 훈련시키는 방법은 무엇입니까? | 이 노트북은 HQQ 프레임 워크를 사용하여 1 비트 및 2 비트 양자화 방법으로 모델을 훈련시키는 데 도움이됩니다. | |
| 20.alpaca _+_ gemma2_9b_unsloth_2x_faster_finetuning | 이 노트북은 gemma2 9b로 모델을 훈련시키는 데 도움이됩니다. | |
| 21. MLFLOW 최상의 산업 관행을 사용한 파이프 라인 평가 | 이 노트북은 MLFlow를 사용하여 21 Rag (검색-응답 세대) 파이프 라인을 평가하여 최상의 업계 관행을 준수하는 포괄적 인 안내서를 제공합니다. | |
22. mlflow.evaluate() 로 포옹 페이스 LLM 평가 | 이 노트북은 mlflow_evaluate를 사용하여 포옹 얼굴 언어 학습 모델 (LLM)을 평가하는 것에 대한 포괄적 인 안내서를 제공합니다. |
기부금을 환영합니다! 이 프로젝트에 기여하려면 문제를 열거나 풀 요청을 제출하십시오.
이 프로젝트는 MIT 라이센스에 따라 라이센스가 부여됩니다.
Ashish의 ❤️으로 만들어졌습니다