alpaca 7b chinese
1.0.0
LLMの詳細な方法については、LLM-Finetune-Guideを参照してください
このリポジトリは、中国のデータセットを備えたFinetuning Llama-7Bのチュートリアルです!私は、要約、質問への回答、テキスト生成、カスタムデータ増強など、複雑なNLPタスクについて、自分のLLMを微調整するためのデータセットと方法を調査して組み合わせます。
元のStanford Alpaca-7B Finetuneには多くのGPUリソースが必要であるため、GPU消費量が少ない方法の調査に焦点を当てています。
だからここに再現する方法は次のとおりです。
$ pip install -r requirements.txt$ pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1+cu116 --extra-index-url https://download.pytorch.org/whl/cu116このリポジトリは、英語のインストラクション、中国の出力構造を使用してすべてのデータセットを組み合わせました。
alpaca_data.json :スタンフォードアルパカの元のデータセットalpaca_data_cleansed.json :グルリス/アルパカダタクレアンによるクレンジングalpaca-zhCN.json :carbonz0/alpaca-chinese-datasetで翻訳しますalpaca-zhTW.json : OpenCCを使用して伝統的な中国人に翻訳しますalpaca-en-zh.json :NTUNLPLAB/Traditional-Chinese-Alpacaによる英語の指導/入力と中国の出力を組み合わせます:( NTUNLPLAB/Traditional-Chinese-Alpaca(2023.03.29)によるChatGPT API( gpt-3.5-turbo )による翻訳翻訳)))) Tloen/Alpaca-Loraによって提供される参照Finetuneメソッド
LLaMA
$ cd finetune/
$ python finetune.py --base_model decapoda-research/llama-7b-hf --data_dir ../data/alpaca-en-zh.json --output_dir ../finetuned/llama-7b-hf_alpaca-en-zh --lora_target_modules ' ["q_proj", "v_proj"] ' BLOOM
$ cd finetune/
$ python finetune.py --base_model bigscience/bloomz-7b1-mt --data_dir ../data/alpaca-en-zh.json --output_dir ../finetuned/bloomz-7b1-mt_alpaca-en-zh --lora_target_modules ' ["query_key_value"] 'torchrunを使用しますLLaMA
$ cd finetune/
$ torchrun --standalone --nnodes=1 --nproc_per_node=4 finetune.py --base_model decapoda-research/llama-7b-hf --data_dir ../data/alpaca-en-zh.json --output_dir ../finetuned/llama-7b-hf_alpaca-en-zh --lora_target_modules ' ["q_proj", "v_proj"] ' BLOOM
$ cd finetune/
$ torchrun --standalone --nnodes=1 --nproc_per_node=4 finetune.py --base_model bigscience/bloomz-7b1-mt --data_dir ../data/alpaca-en-zh.json --output_dir ../finetuned/bloomz-7b1-mt_alpaca-en-zh --lora_target_modules ' ["query_key_value"] 'リポジトリでさまざまなドメインタスクを収集しました:命令finetune-datasets
ようこそ協力! [email protected]までご連絡ください。投資、詐欺、eコマース、法律、ヘルスケアなど、さまざまなドメインからのタスクを試してみたいと思います...
APIとシンプルなWebサイトUIを介して独自のモデルサービスを提供するために!
モデルAPI
$ cd serve/
$ python api.pyデモUI
$ cd serve/
$ python ui.pyLLM-Finetune-GuideでLLMのFinetuneメソッドを配置しました
GPUリソースが少ない大規模な言語モデルを実行しようとする多くの方法をキュレーションしました。
完全なリストを参照:chatgpt-alternatives
@misc{alpaca-7b-chinese,
author = {JiunYi Yang},
title = {Alpaca-7B Chinese: Finetune LLaMA-7B with Chinese instruction datasets},
year = {2023},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {url{https://github.com/A-baoYang/alpaca-7b-chinese}},
}