Fein-Tun-GPT-35-Turbo
Trainingsschritte
# STEP 1:
python prepare_data.py --raw_data=./test/raw_data/qa.txt --base_system_instruction=./test/raw_data/fine_tune_instructions_base.json --output=./data
# STEP 2:
python json2jsonl.py --input=./data --output=./data
# STEP 3:
python fine_tune.py --action=check --json_dir=./data
# STEP 4:
python fine_tune.py --action=upload --jsonl_file=./data/fine_tune_instructions.jsonl
# STEP 5:
python fine_tune.py --action=start
# STEP 6:
python fine_tune.py --action=status
Einschränkungen && Warnungen
- Im Moment können wir nur GPT-3,5-Turbo (speziell) mit 3K-Kontext mit 3,5-Turbo-0613 (GPT-3,5-Turbo-0613) abgestimmen.
- Die Kosten für die Feinabstimmung selbst sind recht niedrig (0,008 US-Dollar für 1K-Token des Datensatzes), aber das Hauptproblem ist die Schlusskosten-da das fein abgestimmte Modell nur von Ihnen verwendet wird, kostet die Inferenz im Vergleich zu normalem 4K-Turbo, was fast halb so teuer ist wie GPT-4.
- Das Fein-Tune-Modell kann nicht zwischen verschiedenen OpenAI-Konten geteilt werden. Die einzige Möglichkeit, die "gleiche" Feine zu haben, besteht darin, den Feinabsteig-Job auf allen separaten Konten auszuführen, die Sie verwenden möchten.
- Der Datensatz für die Feinabstimmung muss 100% SFW betragen, da für die Zitat von OpenAI-"Feinabstimmungsdaten durch unsere Moderations-API und ein GPT-4-Mäßigungssystem übertragen werden, um unsichere Schulungsdaten zu erkennen, die mit unseren Sicherheitsstandards in Konflikt stehen". Die Moderations -API ist ziemlich streng, so dass selbst Dinge wie "an einem Finger saugen" nicht passieren werden.
- Der Eigentümer des Kontos erhält eine E-Mail, wenn eine Feinabstimmung beendet ist.
Referenzen
- Feinabstimmungsdoc von OpenAI