? Treinando lhama com mmengine!
LLAMA.MMENGINE é um repositório experimental que aproveita o mecanismo de treinamento de Mmengine, originalmente projetado para tarefas de visão computacional, para treinar e ajustar modelos de linguagem. O objetivo principal deste projeto é explorar a compatibilidade do mmengine com os modelos de idiomas, aprender sobre técnicas de ajuste fina e se envolver com a comunidade de código aberto para compartilhar e colaboração de conhecimento.
Instale o pytorch
Após este guia https://pytorch.org/get-started/locally/
Configure este repo
Clone o repo
git clone https://github.com/RangiLyu/llama.mmengine
cd llama.mmengineInstalar dependências
pip install -r requirements.txtExecute setup.py
python setup.py developFaça o download dos pesos do modelo do repositório oficial de lhama.
A pasta dos pontos de verificação deve ser assim:
checkpoints/llama
├── 7B
│ ├── checklist.chk
│ ├── consolidated.00.pth
│ └── params.json
├── 13B
│ ...
├── tokenizer_checklist.chk
└── tokenizer.model
Converta os pesos (obrigado pelo script de Lit-llama):
python scripts/convert_checkpoint.py
--output_dir checkpoints/mm-llama
--ckpt_dir checkpoints/llama
--tokenizer_path checkpoints/llama/tokenizer.model
--model_size 7B
python tools/train.py configs/llama-7B_finetune_3e.pypython tools/generate.py configs/llama-7B_finetune_3e.py work_dirs/llama-7B_finetune_3e/epoch_3.pthAgradeço muito o seu interesse em contribuir com a llama.mmengine! Observe que este projeto é mantido como um projeto paralelo pessoal, o que significa que o tempo disponível para desenvolvimento e suporte é limitado. Com isso em mente, incentivo os membros da comunidade a se envolver e contribuir ativamente enviando solicitações de tração!