llama.mmengine
1.0.0
?
Llama.mmengine是一个实验存储库,它利用最初为计算机视觉任务而设计的Mmengine培训引擎来培训和调整语言模型。该项目的主要目标是探索Mmengine与语言模型的兼容性,了解微调技术,并与开源社区互动以进行知识共享和协作。
安装Pytorch
遵循本指南https://pytorch.org/get-started/locally/
设置此存储库
克隆仓库
git clone https://github.com/RangiLyu/llama.mmengine
cd llama.mmengine安装依赖项
pip install -r requirements.txt运行setup.py
python setup.py develop请从官方的Llama Repo下载模型权重。
检查点文件夹应该是这样:
checkpoints/llama
├── 7B
│ ├── checklist.chk
│ ├── consolidated.00.pth
│ └── params.json
├── 13B
│ ...
├── tokenizer_checklist.chk
└── tokenizer.model
转换权重(感谢Lit-lalama的脚本):
python scripts/convert_checkpoint.py
--output_dir checkpoints/mm-llama
--ckpt_dir checkpoints/llama
--tokenizer_path checkpoints/llama/tokenizer.model
--model_size 7B
python tools/train.py configs/llama-7B_finetune_3e.pypython tools/generate.py configs/llama-7B_finetune_3e.py work_dirs/llama-7B_finetune_3e/epoch_3.pth我非常感谢您对为美洲驼做出贡献的兴趣。请注意,该项目是作为个人方面项目的,这意味着可用的开发和支持时间是有限的。考虑到这一点,我友好地鼓励社区成员参与其中,并通过提交拉动请求来积极贡献!