fino-tune-gpt-35-turbo
Pasos de entrenamiento
# STEP 1:
python prepare_data.py --raw_data=./test/raw_data/qa.txt --base_system_instruction=./test/raw_data/fine_tune_instructions_base.json --output=./data
# STEP 2:
python json2jsonl.py --input=./data --output=./data
# STEP 3:
python fine_tune.py --action=check --json_dir=./data
# STEP 4:
python fine_tune.py --action=upload --jsonl_file=./data/fine_tune_instructions.jsonl
# STEP 5:
python fine_tune.py --action=start
# STEP 6:
python fine_tune.py --action=status
Limitaciones y advertencias
- En este momento solo podemos ajustar GPT-3.5-TURBO (GPT-3.5-TURBO-0613 específicamente) que tiene un contexto 4K.
- El costo de ajustar en sí es bastante bajo ($ 0.008 para 1K tokens del conjunto de datos), pero el problema principal es el costo de inferencia, porque el modelo ajustado solo será utilizado por usted, la inferencia costará 8 veces más en comparación con 4K turbo normal, lo que hace que sea casi la mitad que GPT-4.
- El modelo de ajuste fino no se puede compartir entre diferentes cuentas de Operai, por lo que la única forma de tener el "mismo" ajuste es ejecutar el trabajo de ajuste fino en todas las cuentas separadas que desea usar.
- El conjunto de datos para el ajuste Fino debe ser 100% SFW, porque, para citar OpenAi, "los datos de capacitación de ajuste fino se pasan a través de nuestra API de moderación y un sistema de moderación alimentado por GPT-4 para detectar datos de capacitación inseguros que entran en conflicto con nuestros estándares de seguridad". La API de moderación es bastante estricta, por lo que incluso las cosas como "chupar un dedo" no pasarán.
- El propietario de la cuenta recibirá un correo electrónico cuando termine un tune.
Referencias
- Doc de ajuste de fino por OpenAi