ChatGLM Tuning
1.0.0
Uma solução de implementação de chatgpt acessível, Finetune, com base no chatglm-6b + lora de Tsinghua.
DataSet: Alpaca
Os alunos com colab podem experimentá -lo diretamente no Colab:
Código Oficial de PTuning
Converta o conjunto de dados ALPACA em JSONL
python cover_alpaca2jsonl.py
--data_path data/alpaca_data.json
--save_path data/alpaca_data.jsonl
tokenização
python tokenize_dataset_rows.py
--jsonl_path data/alpaca_data.jsonl
--save_path data/alpaca
--max_seq_length 200
--skip_overlength False
--chatglm_path model_path/chatglm
--version v1
--jsonl_path pato de dados ajustado, formato jsonl, codifica os campos ['context'] e ['alvo'] de cada linha--save_path PATH--max_seq_length LIMPO LIMPENTO MÁXIMO--chatglm_path para importar o caminho do modelo (você pode escolher diferentes caminhos de chatglm ou chatglm2)--version do modelo de versão (v1 refere-se a chatglm, v2 refere-se a chatglm2)python finetune.py
--dataset_path data/alpaca
--lora_rank 8
--per_device_train_batch_size 6
--gradient_accumulation_steps 1
--max_steps 52000
--save_steps 1000
--save_total_limit 2
--learning_rate 1e-4
--fp16
--remove_unused_columns false
--logging_steps 50
--output_dir output
--chatglm_path model_path/chat_glmReferência infer.ipynb
Depois de usar o conjunto de dados da ALPACA para ter um desempenho melhor no conjunto de dados da ALPACA:
Answer: É a saída do modelo#### Answer: é a resposta original 
| Lora | Conjunto de dados |
|---|---|
| MyMusise/chatGlm-6b-alpaca-lora | Alpaca |
| MyMusise/ChatGlm-6b-alpaca-zh-en-lora | ALPACA-ZH-EN |
| (no caminho) | ALPACA-ZH |
Consulte Exemplos/Infer_pretrain.ipynb