Tune-GPT-35-turbo
Etapas de treinamento
# STEP 1:
python prepare_data.py --raw_data=./test/raw_data/qa.txt --base_system_instruction=./test/raw_data/fine_tune_instructions_base.json --output=./data
# STEP 2:
python json2jsonl.py --input=./data --output=./data
# STEP 3:
python fine_tune.py --action=check --json_dir=./data
# STEP 4:
python fine_tune.py --action=upload --jsonl_file=./data/fine_tune_instructions.jsonl
# STEP 5:
python fine_tune.py --action=start
# STEP 6:
python fine_tune.py --action=status
Limitações e avisos
- No momento, só podemos ajustar o GPT-33.5-turbo (GPT-3.5-turbo-0613 especificamente), que possui contexto 4K.
- O custo de ajuste fino é bastante baixo (US $ 0,008 para 1 mil tokens do conjunto de dados), mas o principal problema é o custo de inferência-porque o modelo de ajuste fino será usado apenas por você, a inferência custará 8 vezes mais em comparação com o Turbo 4K normal, o que o torna quase metade do GPT-4.
- O modelo de ajuste fino não pode ser compartilhado entre diferentes contas do OpenAI, portanto, a única maneira de ter o "mesmo" tune fine é executar o trabalho de ajuste fino em todas as contas separadas que você deseja usar.
- O conjunto de dados para o ajuste fino deve ser 100% SFW, porque, para citar o OpenAI-"Os dados de treinamento de ajuste fino são passados por meio de nossa API de moderação e um sistema de moderação alimentado por GPT-4 para detectar dados de treinamento inseguro que conflitam com nossos padrões de segurança". A API de moderação é bastante rigorosa, então mesmo coisas como "chupar um dedo" não passam.
- O proprietário da conta receberá um email quando um ajuste fino terminar.
Referências
- Doc de ajuste fino por OpenAi