เราพัฒนา Flacuna โดยการปรับแต่ง Vicuna-13b ในคอลเล็กชั่น Flan Flacuna ดีกว่า Vicuna ในการแก้ปัญหา เข้าถึงโมเดลที่นี่ https://huggingface.co/declare-lab/flacuna-13b-v1.0
FLAN-T5 ยังมีประโยชน์ในการสร้างข้อความถึง Audio ค้นหางานของเราที่ https://github.com/declare-lab/tango หากคุณสนใจ
พื้นที่เก็บข้อมูลนี้มีรหัสสำหรับการขยายการปรับแต่งการเรียนการสอนสังเคราะห์ Stanford Alpaca ไปยังรุ่นที่ปรับแต่งคำสั่งที่มีอยู่เช่น FLAN-T5 เรามีตัวอย่างแบบอินเทอร์แอคทีฟขอบคุณ Joao Gante! นอกจากนี้เรายังทำการเปรียบเทียบโมเดลที่ปรับแต่งคำสั่งมากมายที่ DECLARE-LAB/FLAN-EVAL โมเดลที่ผ่านการฝึกฝนของเรามีให้บริการอย่างเต็มที่บน HuggingFace หรือไม่? -
| แบบอย่าง | พารามิเตอร์ | ข้อมูลคำสั่ง | GPUs ฝึกอบรม |
|---|---|---|---|
| เบส | 220 เมตร | Flan, Alpaca | 1x A6000 |
| Flan-Alpaca ขนาดใหญ่ | 770m | Flan, Alpaca | 1x A6000 |
| Flan-Alpaca-XL | 3B | Flan, Alpaca | 1x A6000 |
| Flan-Alpaca-XXL | 11b | Flan, Alpaca | 4x A6000 (FSDP) |
| Flan-GPT4ALL-XL | 3B | Flan, gpt4all | 1x A6000 |
| Flan-Sharegpt-XL | 3B | Flan, ShareGpt/Vicuna | 1x A6000 |
| Flan-Alpaca-GPT4-XL* | 3B | Flan, GPT4-Alpaca | 1x A6000 |
*แนะนำเพื่อประสิทธิภาพที่ดีขึ้น
ALPACA แสดงถึงทิศทางใหม่ที่น่าตื่นเต้นเพื่อประมาณประสิทธิภาพของโมเดลภาษาขนาดใหญ่ (LLMS) เช่น CHATGPT ในราคาถูกและง่ายดาย พวกเขาใช้ประโยชน์จาก LLM เช่น GPT-3 เพื่อสร้างคำแนะนำเป็นข้อมูลการฝึกอบรมสังเคราะห์ ข้อมูลสังเคราะห์ที่ครอบคลุมงานมากกว่า 50k สามารถใช้เพื่อปรับรุ่นที่เล็กกว่า อย่างไรก็ตามการใช้งานดั้งเดิมนั้นสามารถเข้าถึงได้น้อยลงเนื่องจากข้อ จำกัด ด้านใบอนุญาตของโมเดล Llama พื้นฐาน นอกจากนี้ผู้ใช้ยังสังเกตเห็นเสียงรบกวนที่อาจเกิดขึ้นในชุดข้อมูลสังเคราะห์ ดังนั้นจึงเป็นการดีกว่าที่จะสำรวจโมเดลที่เข้าถึงได้อย่างเต็มที่ซึ่งได้รับการฝึกฝนแล้วเกี่ยวกับคำแนะนำที่มีคุณภาพสูง (แต่มีความหลากหลายน้อยกว่า) เช่น FLAN-T5
from transformers import pipeline
prompt = "Write an email about an alpaca that likes flan"
model = pipeline(model="declare-lab/flan-alpaca-gpt4-xl")
model(prompt, max_length=128, do_sample=True)
# Dear AlpacaFriend,
# My name is Alpaca and I'm 10 years old.
# I'm excited to announce that I'm a big fan of flan!
# We like to eat it as a snack and I believe that it can help with our overall growth.
# I'd love to hear your feedback on this idea.
# Have a great day!
# Best, AL Paca
ติดตั้งการพึ่งพาและดาวน์โหลดข้อมูล เราใช้ข้อมูลที่ทำความสะอาดจาก Alpaca-Lora สำหรับการฝึกอบรม
conda create -n paca python=3.8 -y
conda activate paca
pip install -r requirements.txt
mkdir -p data
wget https://github.com/declare-lab/flan-alpaca/releases/download/v0.1.0/alpaca_data.json -O data/alpaca.json
wget https://github.com/declare-lab/flan-alpaca/releases/download/v0.1.0/alpaca_data_cleaned.json -O data/alpaca_clean.json
wget https://github.com/declare-lab/flan-alpaca/releases/download/v0.1.0/alpaca_gpt4_data.json -O data/alpaca_gpt4.json
ชุดข้อมูลการฝึกอบรม Alpaca ทำความสะอาดล่วงหน้า:
python data_loading.py preprocess_alpaca
--path_in data/alpaca_gpt4.json
--path_out data/train.json
หากคุณต้องการใช้ข้อมูล GPT4ALL คุณสามารถใช้คำสั่งนี้:
python data_loading.py preprocess_gpt4all --path_out data/train.json
หากคุณต้องการใช้ข้อมูล ShareGPT คุณสามารถใช้คำสั่งนี้:
wget https://github.com/declare-lab/flan-alpaca/releases/download/v0.1.0/ShareGPT_unfiltered_cleaned_split.json -O data/sharegpt.json
python data_loading.py preprocess_sharegpt --path_out data/train.json
คำสั่งต่อไปนี้จะ finetune flan-t5-xl (8hrs ใน A6000 GPU เดียว)
python training.py --output_dir outputs/model/xl
--use_compile
--train_epochs 3
--max_source_length 64
--max_target_length 512
--data_path data/train.json
--model_name_or_path "google/flan-t5-xl"
--train_batch_size 1
--gradient_accumulation_steps 64
หากโมเดลไม่พอดีกับหน่วยความจำและคุณมี GPU หลายตัวคุณสามารถลองใช้ข้อมูลแบบย่อเต็มรูปแบบขนานโดยการแทนที่ --use_compile ด้วย --use_fsdp
python inference.py test_model
--path "outputs/model/xl/epoch=2-step=2439.ckpt"
--prompt "Write an email about an alpaca that likes flan"
แทนที่ declare-lab/flan-alpaca-xl ด้วย repo huggingface ที่คุณต้องการ
huggingface-cli login
python inference.py export_to_hub
--path "outputs/model/xl/epoch=2-step=2439.ckpt"
--repo declare-lab/flan-alpaca-xl