amende-GPT-35-turbo
Étapes de formation
# STEP 1:
python prepare_data.py --raw_data=./test/raw_data/qa.txt --base_system_instruction=./test/raw_data/fine_tune_instructions_base.json --output=./data
# STEP 2:
python json2jsonl.py --input=./data --output=./data
# STEP 3:
python fine_tune.py --action=check --json_dir=./data
# STEP 4:
python fine_tune.py --action=upload --jsonl_file=./data/fine_tune_instructions.jsonl
# STEP 5:
python fine_tune.py --action=start
# STEP 6:
python fine_tune.py --action=status
Limitations et avertissements
- À l'heure actuelle, nous ne pouvons que affiner GPT-3.5-turbo (GPT-3.5-turbo-0613 spécifiquement) qui a un contexte 4K.
- Le coût de la réglage fin lui-même est assez faible (0,008 $ pour les jetons 1K de l'ensemble de données), mais le principal problème est le coût d'inférence - car le modèle affiné ne sera utilisé que par vous, l'inférence coûtera 8 fois plus par rapport au turbo 4K normal, ce qui le rend presque moitié aussi cher que GPT-4.
- Le modèle Fine-Tune ne peut pas être partagé entre différents comptes OpenAI, donc la seule façon d'avoir la "même" affinure est d'exécuter le travail d'adaptation sur tous les comptes distincts que vous souhaitez utiliser.
- L'ensemble de données de la diture fine doit être à 100% SFW, car, pour citer OpenAAI - "Les données de formation finales sont transmises par notre API de modération et un système de modération alimenté par GPT-4 pour détecter les données de formation dangereuses qui entrent en conflit avec nos normes de sécurité". L'API de modération est assez stricte, donc même des choses comme "sucer un doigt" ne passeront pas.
- Le propriétaire du compte recevra un e-mail à la fin d'une aventure.
Références
- Doc de réglage fin par openai