llama.mmengine
1.0.0
?Mmengineでllamaをトレーニングします!
llama.mmengineは、もともとコンピュータービジョンタスク向けに設計されたMmengineトレーニングエンジンを活用して、言語モデルをトレーニングおよび微調整する実験リポジトリです。このプロジェクトの主な目標は、MmengineとLanguageモデルとの互換性を調査し、微調整技術について学び、知識の共有とコラボレーションのためにオープンソースコミュニティと関わることです。
Pytorchをインストールします
このガイドに従うhttps://pytorch.org/get-started/locally/
このリポジトリをセットアップします
レポをクローンします
git clone https://github.com/RangiLyu/llama.mmengine
cd llama.mmengine依存関係をインストールします
pip install -r requirements.txtsetup.pyを実行します
python setup.py develop公式のLlama Repoからモデルの重みをダウンロードしてください。
チェックポイントフォルダーは次のようなものでなければなりません:
checkpoints/llama
├── 7B
│ ├── checklist.chk
│ ├── consolidated.00.pth
│ └── params.json
├── 13B
│ ...
├── tokenizer_checklist.chk
└── tokenizer.model
ウェイトを変換します(Lit-Llamaのスクリプトをありがとう):
python scripts/convert_checkpoint.py
--output_dir checkpoints/mm-llama
--ckpt_dir checkpoints/llama
--tokenizer_path checkpoints/llama/tokenizer.model
--model_size 7B
python tools/train.py configs/llama-7B_finetune_3e.pypython tools/generate.py configs/llama-7B_finetune_3e.py work_dirs/llama-7B_finetune_3e/epoch_3.pthllama.mmengineに貢献してくれたことにあなたの興味を大いに感謝します!このプロジェクトは個人的なサイドプロジェクトとして維持されていることに注意してください。つまり、開発とサポートのために利用可能な時間は限られています。それを念頭に置いて、私はコミュニティのメンバーがプルリクエストを提出することで関与し、積極的に貢献することを親切に勧めます!