Gunakan qlora untuk menyempurnakan model bahasa besar Cina.
Gunakan qlora untuk menyempurnakan Baichuan-7b, dan kodenya lebih ringkas: https://github.com/taishan1994/baichuan-qlora-tuning
numpy == 1.24 . 2
pandas == 2.0 . 0
nltk == 3.7
transformers == 4.30 . 0. dev0
accelerate == 0.20 . 0. dev0
deepspeed == 0.9 . 2
peft == 0.4 . 0. dev0
datasets == 2.12 . 0
evaluate == 0.2 . 2
sentencepiece == 0.1 . 97
scipy == 1.10 . 1
icetk
cpm_kernels
mpi4py == 3.1 . 4 - - output #训练保存lora权重
- - - - chatglm
- - - - alpaca
- - - - bloom
- - data
- - - - msra
- - - - - - instruct_data
- - - - - - - - train . json #指令数据
- - model_hub
- - - - BELLE - 7 B - 2 M #bloom权重
- - - - chatglm - 6 b #chatGLM权重
- - - - 7 B : #英文LLaMA原始权重
- - - - 7 B - hf : #英文权重转换为hugging face格式权重
- - - - chinese - llama - plus - lora - 7 b : #中文llama-7b的lora权重
- - - - chinese - alpaca - plus - lora - 7 b : #中文alpaca-7b的lora权重
- - - - chinese - alpaca - 7 b : #合并lora后的最终的模型
- - - - tokenizer . model : #原始llama的7B文件
- - - - convert_llama_weights_to_hf . py #llama转换为hugging face格式
- - - - merge_llama_with_chinese_lora . py #合并lora到预训练模型
- - tools
- - - - get_version . py #获取python包版本
- - - - get_used_gpus . py #循环打印使用的GPU显卡
- - chat . py # 闲聊
- - qlora . py # 4bit训练
- - process . py # 测试处理数据Alamat unduhan chatglm-6b: disk cloud universitas tsinghua (tsinghua.edu.cn)
python qlora . py - - model_name = "chatglm" - - model_name_or_path = "./model_hub/chatglm-6b" - - trust_remote_code = True - - dataset = "msra" - - source_max_len = 128 - - target_max_len = 64 - - do_train - - save_total_limit = 1 - - padding_side = "left" - - per_device_train_batch_size = 8 - - do_eval - - bits = 4 - - save_steps = 10 - - gradient_accumulation_steps = 1 - - learning_rate = 1e-5 - - output_dir = "./output/chatglm/" - - lora_r = 8 - - lora_alpha = 32Model LLAMA yang secara resmi dirilis oleh Facebook dilarang dari penggunaan komersial, dan pejabat tidak memiliki bobot model open source resmi (meskipun sudah ada banyak alamat unduhan pihak ketiga di internet). Untuk mengikuti izin yang sesuai, saat ini tidak mungkin untuk mempublikasikan bobot model lengkap. Harap mengerti (hal yang sama benar di luar negeri saat ini). Cari sendiri alamat unduhan.
python convert_llama_weights_to_hf.py --input_dir ./ --model_size 7B --output_dir ./7B-hf . Jika kesalahan dilaporkan: If this call came from a _pb2.py file, your generated code is out of date and must be regenerated with protoc >= 3.19.0 , Anda dapat pip install --upgrade protobuf==3.20.1 , dan kemudian: python convert_llama_weights_to_hf.py --input_dir ./ --model_size tokenizer_only --output_dir ./7B-hf . Akhirnya kita bisa mendapatkan 7B-HF.python merge_llama_with_chinese_lora.py --base_model "./7B-hf" --lora_model "./chinese-llama-plus-lora-7b,chinese-alpaca-plus-lora-7b" --output_type "huggingface" --output_dir "./chinese-alpaca-7b" . Akhirnya kita bisa mendapatkan Cina-ALPACA-7B. python qlora . py - - model_name = "chinese_alpaca" - - model_name_or_path = "./model_hub/chinese-alpaca-7b" - - trust_remote_code = False - - dataset = "msra" - - source_max_len = 128 - - target_max_len = 64 - - do_train - - save_total_limit = 1 - - padding_side = "right" - - per_device_train_batch_size = 8 - - do_eval - - bits = 4 - - save_steps = 10 - - gradient_accumulation_steps = 1 - - learning_rate = 1e-5 - - output_dir = "./output/alpaca/" - - lora_r = 8 - - lora_alpha = 32Alamat unduhan Belle-7b-2m: BelleGroup/Belle-7b-2m di Main (huggingface.co)
python qlora . py - - model_name = "chinese_bloom" - - model_name_or_path = "./model_hub/BELLE-7B-2M" - - trust_remote_code = False - - dataset = "msra" - - source_max_len = 128 - - target_max_len = 64 - - do_train - - save_total_limit = 1 - - padding_side = "left" - - per_device_train_batch_size = 8 - - do_eval - - bits = 4 - - save_steps = 10 - - gradient_accumulation_steps = 1 - - learning_rate = 1e-5 - - output_dir = "./output/bloom/" - - lora_r = 8 - - lora_alpha = 32 python chat . py - - model_name "chatglm" - - base_model "./model_hub/chatglm-6b" - - tokenizer_path "./model_hub/chatglm-6b" - - lora_model "./output/chatglm/adapter_model" - - with_prompt - - interactiveBagaimana cara melatih data Anda sendiri? Format datanya adalah:
{
"data" : [
{ "instruction" : "" , "input" : "" , "output" : "" },
{ "instruction" : "" , "input" : "" , "output" : "" },
...
]
}Kemudian tambahkan set data Anda sendiri di tempat di mana data didefinisikan dalam qlora.py. Akhirnya, tentukan sendiri parameter yang relevan saat menjalankan perintah.
Liucong/chatglm-finetuning: Berdasarkan model chatglm-6b, tugas-tugas spesifik hilir yang menyempurnakan dilakukan, melibatkan pembekuan, lora, p-tuning, dll.
Thudm/ChatGLM-6B: ChatGLM-6B: Model Bahasa Dialog Bilingual Terbuka | Model bahasa dialog bilingual open source (github.com)
Huggingface/Peft :? PEFT: Fine-of-the-Art-efisien fine-tuning. (github.com)
ymcui/cina-llama-alpaca: llama Cina & alpaca model bahasa besar + penyebaran pelatihan CPU/GPU lokal (llama cina & alpaca llms) (github.com)
Lianjiatech/Belle: Belle: Jadilah mesin model bahasa besar semua orang (model dialog Cina open source) (github.com)
Artidoro/Qlora: Qlora: Finetuning efisien LLMS terkuantisasi (github.com)
Orang yang baik hati, Kado, dapatkah Anda mencoba efek akhir? Menyewa Autodl tidak cukup untuk memenuhi kebutuhan