Этот репозиторий содержит код для воспроизведения результатов, представленных в следующей статье:
Орхан А.Е. Arxiv: 2303.17557.
Репозиторий содержит три python files train.py , test.py , generate.py (все измененные из примера моделирования причинного языка Huggingface для обучения (или Finetune) модели, для запуска теста распознавания и для проведения теста на отзыв соответственно.
Некоторые примеры использования для этих файлов приведены ниже.
gpt-j-6B модели с предложениями исследования в seen_data_0.json для 1 эпохи (1 экспозиция) на 4 графических процессорах (с общим размером партии 4x4 = 16 предложений), используя рамки ускорения HuggingFice (см. Пример файла конфигурации здесь): accelerate launch - - config_file accelerate_config . yaml - - num_cpu_threads_per_process 4 train . py
- - model_name_or_path "EleutherAI/gpt-j-6B"
- - train_file "data/llm-experiment-data/expt1/seen_data_0.json"
- - per_device_train_batch_size 4
- - learning_rate 0.00001
- - output_dir OUTPUT_DIR
- - save_prefix INFORMATIVE_SAVE_PREFIX
- - block_size 128
- - num_train_epochs 1
- - overwrite_cacheseen_data_0.json и фольги в unseen_data_0.json : python - u test . py
- - model_name_or_path MODEL_PATH
- - seen_file "data/llm-experiment-data/expt1/seen_data_0.json"
- - unseen_file "data/llm-experiment-data/expt1/unseen_data_0.json"
- - per_device_eval_batch_size 1
- - output_dir OUTPUT_DIR
- - save_prefix INFORMATIVE_SAVE_PREFIX
- - block_size 128
- - overwrite_cacheseen_data_0.json : python - u generate . py
- - model_name_or_path MODEL_PATH
- - seen_file "data/llm-experiment-data/expt1/seen_data_0.json"
- - per_device_eval_batch_size 1
- - output_dir OUTPUT_DIR
- - save_prefix INFORMATIVE_SAVE_PREFIX
- - block_size 128
- - overwrite_cache Папка scripts содержит сценарии Slurm для воспроизведения всех экспериментов, представленных в статье, используя эти три файла. Папка data содержит все экспериментальные данные, используемые в экспериментах. Папка utils содержит коммунальные функции, которые использовались для генерации экспериментальных данных. Результаты всех экспериментов по распознаванию, отзыву и удержанию, представленных в статье, доступны в этом репозитории набора данных HuggingFace.