LLM Finetuning
1.0.0
PEFT(前脱出微調整)プロジェクトリポジトリへようこそ!このプロジェクトは、LORAとHugging Faceのトランスライブラリを使用して、効率的に大規模な言語モデルを微調整することに焦点を当てています。
| ノートブックタイトル | 説明 | コラブバッジ |
|---|---|---|
| 1.ロラと抱き合った顔で大規模な言語モデルを効率的にトレーニングする | LORAとHugging Faceを使用した大規模な言語モデルの効率的なトレーニングの詳細とコード。 | |
| 2。コラブノートブックで独自のllama2モデルを微調整します | Colabを使用してLlama 2モデルを微調整するためのガイド。 | |
| 3。LLAMA-7Bモデルを備えたGuanaco Chatbotデモ | Llama-7Bモデルを搭載したチャットボットデモのショーケース。 | |
| 4。PeftFinetune-Bloom-560M-Tagger | PEFT Finetune-Bloom-560m-Taggerのプロジェクトの詳細。 | |
| 5。FINETUNE_META_OPT-6-1B_MODEL_BNB_PEFT | PEFTとBloom-560M-Taggerを使用して、Meta Opt-6-1Bモデルを微調整するための詳細とガイド。 | |
| 6. BNBの自己監視トレーニングを備えたFinetune Falcon-7B | BNBの自己監視トレーニングを使用したFALCON-7Bの微調整ガイド。 | |
| 7. Qloraを使用したFinetune Llama2 | PEFTライブラリとQloraメソッドを使用して、llama 2 7b事前訓練モデルを微調整するためのガイド | |
| 8.Stable_vicuna13b_8bit_in_colab | ファインチューニングvecuna 13b_8bitのガイド | |
| 9。GPT-NEO-X-20B-BNB2BIT_TRANINES | BFLOAT16精度を使用してGPT-Neox-20Bモデルをトレーニングする方法をガイド | |
| 10。MPT-Instruct-30Bモデルトレーニング | MPT-Instruct-30Bは、MOSAICMLの大規模な言語モデルであり、短い形式の命令のデータセットでトレーニングされています。指示に従い、質問に答え、テキストを生成するために使用できます。 | |
| 11.rlhf_training_for_customdataset_for_anymodel | カスタムデータセットを使用して、任意のLLMモデルでRLHFトレーニングでモデルをトレーニングする方法 | |
| 12.fine_tuning_microsoft_phi_1_5b_on_custom_dataset(dialogstudio) | マイクロソフトPHI 1.5でのTRL SFTトレーニングでモデルをカスタムでトレーニングする方法 | |
| 13。Openiaigpt3.5ターボの糸状 | 独自のデータでGPT 3.5をFintuneする方法 | |
| 14。AutoTrain-Advancedを使用したFinetuning Mistral-7B Finetuningモデル | Autotrained-Advancedを使用してMistral-7Bを微調整する方法 | |
| 15。RagLangchainチュートリアル | Langchainを使用してRAGの使用方法 | |
| 16。LangChainPDF質問の質問を備えたナレッジグラフLLM | PDF質問応答で知識グラフを構築する方法 | |
| 17. neo4jおよびlangchainエージェントの質問回答を備えたOpenai関数を使用したKnolwedgeグラフへのテキスト | テキストまたはPDFドキュメントから知識グラフを作成する方法PDF質問に応答する | |
| 18. LangchainとOpenaiを使用してドキュメントを知識グラフに変換します | このノートブックは、次のラグベースのアプリケーションのために、ドキュメントをナレッジグラフに変換できる最も簡単な方法を理解するのに役立ちます | |
| 19. LLMSで1ビットモデルをトレーニングする方法は? | このノートブックは、HQQフレームワークを使用して1ビットおよび2ビットの量子化方法でモデルをトレーニングするのに役立ちます | |
| 20.ALPACA _+_ GEMMA2_9B_UNSLOTH_2X_FASTER_FINETUNING | このノートブックは、Gemma2 9bでモデルをトレーニングするのに役立ちます | |
| 21.MLFLOWベスト業界の実践を使用したRAGパイプライン評価 | このノートブックは、MLFLOWを使用して21のRAG(Treave-Then-Answer Generation)パイプラインを評価するための包括的なガイドを提供し、最高の業界慣行を順守しています。 | |
22. mlflow.evaluate()で抱き合った顔LLMを評価する | このノートブックは、MLFLOW_EVALUATEを使用して、ハグするフェイス言語学習モデル(LLM)の評価に関する包括的なガイドを提供します。 |
貢献は大歓迎です!このプロジェクトに貢献したい場合は、お気軽に問題を開いたり、プルリクエストを送信したりしてください。
このプロジェクトは、MITライセンスの下でライセンスされています。
Ashishによって❤️で作成されました