Para obtener más métodos de Finetune para LLM, consulte LLM-Finetune-Guide
¡Este repositorio es un tutorial para Finetuning Llama-7B con conjuntos de datos chinos! Encuesto y combino el conjunto de datos y el método para Finetuning My Own LLM para tareas complejas de PNL, como resumen, respuesta a preguntas, generación de texto, aumento de datos personalizados, etc.
Dado que el Stanford Alpaca-7b Finetune original necesita muchos recursos de GPU, me concentro en inspeccionar el método con un bajo consumo de GPU.
Así que aquí está cómo reproducir:
$ pip install -r requirements.txt$ pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1+cu116 --extra-index-url https://download.pytorch.org/whl/cu116Este repositorio combinó todos los conjuntos de datos utilizando la construcción de instrucción inglesa, construcción de salida china:
alpaca_data.json : conjunto de datos original de Stanford Alpacaalpaca_data_cleansed.json : limpieza por gururise/alpacadatacleanedalpaca-zhCN.json : traducir por carbonz0/alpaca-chineset-datasetalpaca-zhTW.json : traducir al chino tradicional usando OpenCCalpaca-en-zh.json : Combine la instrucción/entrada en inglés y la producción china por Ntunlplab/tradicional-china-alpaca: (tradicional tradicional chino traducido por chatgpt api ( gpt-3.5-turbo ) por ntunlplab/tradicional-chines-alpaca (actualización a 2023.03.29)))))))) Método Finetune de referencia proporcionado por Tloen/Alpaca-Lora
LLaMA
$ cd finetune/
$ python finetune.py --base_model decapoda-research/llama-7b-hf --data_dir ../data/alpaca-en-zh.json --output_dir ../finetuned/llama-7b-hf_alpaca-en-zh --lora_target_modules ' ["q_proj", "v_proj"] ' BLOOM
$ cd finetune/
$ python finetune.py --base_model bigscience/bloomz-7b1-mt --data_dir ../data/alpaca-en-zh.json --output_dir ../finetuned/bloomz-7b1-mt_alpaca-en-zh --lora_target_modules ' ["query_key_value"] 'torchrun para capacitación distribuida en multi-GPUS LLaMA
$ cd finetune/
$ torchrun --standalone --nnodes=1 --nproc_per_node=4 finetune.py --base_model decapoda-research/llama-7b-hf --data_dir ../data/alpaca-en-zh.json --output_dir ../finetuned/llama-7b-hf_alpaca-en-zh --lora_target_modules ' ["q_proj", "v_proj"] ' BLOOM
$ cd finetune/
$ torchrun --standalone --nnodes=1 --nproc_per_node=4 finetune.py --base_model bigscience/bloomz-7b1-mt --data_dir ../data/alpaca-en-zh.json --output_dir ../finetuned/bloomz-7b1-mt_alpaca-en-zh --lora_target_modules ' ["query_key_value"] 'He recopilado diferentes tareas de dominio en mi repositorio: instrucciones-finetune-datasets
¡Bienvenidas cooperaciones! Póngase en contacto conmigo en: [email protected] . Me gustaría probar tareas de diferentes dominios, como inversión, fraude, comercio electrónico, ley, atención médica, ...
¡Para servir su propio servicio modelo a través de API y UI del sitio web simple!
API modelo
$ cd serve/
$ python api.pydemostración ui
$ cd serve/
$ python ui.pyArreglé los métodos Finetune para LLM en LLM-Finetune-Guide
Curraté muchos métodos que intentan ejecutar modelos de idiomas grandes con menos recursos de GPU:
Ver lista completa: chatgpt-alternativa
@misc{alpaca-7b-chinese,
author = {JiunYi Yang},
title = {Alpaca-7B Chinese: Finetune LLaMA-7B with Chinese instruction datasets},
year = {2023},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {url{https://github.com/A-baoYang/alpaca-7b-chinese}},
}