Effectuer un réglage fin complet, le réglage fin de Lora et le réglage fine Qlora pour LLAMA3. De plus, le réglage fin du modèle QWEN1.5 est également pris en charge. Si vous souhaitez le remplacer par un autre modèle, la chose la plus importante est de prétraiter les données.
2023/07/28: Ajouter un réglage fin à Baichuan2-7b-chat.
2024/07/24: Ajout d'un réglage fin à LLAMA3.1-8B-Istruct. transformers==4.43.1 et accelerate==0.33.0 .
2024/07/22:
Ajoutez un réglage fin au GLM-9B-CHAT. Remarque: vous devez remplacer la ligne 791 dans modélisation_chatglm.py par padding_mask = padding_mask.to(torch.bfloat16) . La version Transformers requise est 4.42.4 . Après avoir installé le package dans exigences.txt, vous devez réinstaller les transformateurs.
Ajout d'un réglage fin à Qwen1.5-7b-chat.
Ajoutez un réglage fin à l'instruct de QWEN2-7B.
Ajoutez un réglage fin à Yi1.5-6b-chat.
2024/07/19: Ajout d'un réglage fin à Interlm2.5. Remarque: Internlm2.5 ne prend pas en charge le réglage fin à l'aide de BF16, donc FP16 est sélectionné dans la commande RUN.
2024/10/04: Ajout d'un réglage fin à Qwen2.5-7b-instruct. Ajouter un réglage fin à l'instruct de LLAMA3.2-3b. pip install transformers --upgrade et pip install accelerate --upgrade .
Exécutez l'appareil: utilisez simplement une carte graphique avec une mémoire graphique 24g.
python==3.8.8
pip install -r requirements.txt
Les données sont stockées sous les données, le format spécifique est:
[
{
"conversations" : [
{
"from" : " user " ,
"value" : "你是那个名字叫ChatGPT的模型吗? "
},
{
"from" : " assistant " ,
"value" : "我的名字是西西嘛呦,并且是通过家里蹲公司的大数据平台进行训练的。 "
}
]
}
...
]Plusieurs cycles de conversations sont également préparés avec des données au format ci-dessus.
Entrez le dossier Model_Hub, exécutez python download_modelscope.py pour télécharger le modèle LLAMA3-8B-Istruct.
Entrez le dossier de script.
En raison des restrictions de la machine, il n'y a pas de réglage de paramètre complet ici. Vous pouvez l'essayer si vous avez les conditions.
Le nombre de cartes graphiques spécifiées par nproc_per_node et cuda_visible_devices doit être cohérente.
NCCL_P2P_DISABLE=1
NCCL_IB_DISABLE=1
CUDA_VISIBLE_DEVICES=0,1,2,4,5,6,7
torchrun
--nproc_per_node 7
--nnodes 1
--node_rank 0
--master_addr localhost
--master_port 6601
../finetune_llama3.py
--model_name_or_path " ../model_hub/LLM-Research/Meta-Llama-3-8B-Instruct/ "
--data_path " ../data/Belle_sampled_qwen.json "
--bf16 True
--output_dir " ../output/llama3_8B_lora "
--num_train_epochs 100
--per_device_train_batch_size 1
--per_device_eval_batch_size 1
--gradient_accumulation_steps 8
--evaluation_strategy " no "
--save_strategy " steps "
--save_steps 5
--save_total_limit 1
--learning_rate 1e-5
--weight_decay 0.1
--adam_beta2 0.95
--warmup_ratio 0.01
--lr_scheduler_type " cosine "
--logging_steps 1
--report_to " none "
--model_max_length 4096
--gradient_checkpointing True
--lazy_preprocess True
--deepspeed " ../config/ds_config_zero3_72B.json "
--use_loraLe nombre de cartes graphiques spécifiées par nproc_per_node et cuda_visible_devices doit être cohérente. Utilisez Qlora pour terminer la formation sur un seul 4090.
NCCL_P2P_DISABLE=1
NCCL_IB_DISABLE=1
CUDA_VISIBLE_DEVICES=0,1,2,4,5,6,7
torchrun
--nproc_per_node 7
--nnodes 1
--node_rank 0
--master_addr localhost
--master_port 6601
../finetune_llama3.py
--model_name_or_path " ../model_hub/LLM-Research/Meta-Llama-3-8B-Instruct/ "
--data_path " ../data/Belle_sampled_qwen.json "
--bf16 True
--output_dir " ../output/llama3_8B_qlora "
--num_train_epochs 100
--per_device_train_batch_size 1
--per_device_eval_batch_size 1
--gradient_accumulation_steps 16
--evaluation_strategy " no "
--save_strategy " steps "
--save_steps 5
--save_total_limit 1
--learning_rate 1e-5
--weight_decay 0.1
--adam_beta2 0.95
--warmup_ratio 0.01
--lr_scheduler_type " cosine "
--logging_steps 1
--report_to " none "
--model_max_length 4096
--gradient_checkpointing True
--lazy_preprocess True
--deepspeed " ../config/ds_config_zero2.json "
--use_lora
--load_in_4bit
--q_loraRaisonnement après la formation:
问题: 在互联网普及的时代,社交媒体已经成为了现代人生活中不可缺少的一部分。从微信、微博、 Facebook到Twitter 、 Instagram等等,社交媒体不仅满足了人们交流互动的需求,同时让人们更加容易地分享自己的生活瞬间、获取新闻资讯、找到志同道合的人群以及推广自己的业务。然而,与此同时,社交媒体也带来了一系列问题,如滥用个人信息、泄露隐私等。因此,如何正确地使用社交媒体已经成为了一个备受关注的话题。,总结上面这段文本的几个关键词
微调前结果: Arrrr , shiver me timbers ! Ye be wantin ' me to summarize the key words from that there text , eh ? Alright then , matey ! Here be the main points :
1. Social media ( the scourge o ' the seven seas ... er , I mean , the modern world )
2. Communication ( the lifeblood o ' the pirate' s existence ... er , I mean , the need for people to interact )
3. Sharing ( the treasure o ' the digital age... er, I mean, the ability to share one' s life moments )
4. Information ( the booty o ' the internet ... er , I mean , the news and knowledge shared online )
5. Privacy ( the anchor o ' security... er, I mean, the need to protect one' s personal info )
6. Correct usage ( the map to avoidin ' the rocky shores o' social media misuse ... er , I mean , the importance of using social media responsibly )
So hoist the colors , me hearties , and remember to use social media like a proper pirate : with caution , respect , and a keen eye for treasure !
微调后结果: 社交媒体、交流、分享、隐私、滥用信息Le code fait principalement référence à:
Le modèle peut être téléchargé sur la portée du modèle: