Это репозиторий, содержащий код и данные для статьи:
К. Норбахш, М. Сулайман, М. Шарифи, К. Рой и П. Джамшиди. Предварительные языковые модели также являются символическими решателями математики!
Сайт проекта
Этот код зависит от следующих пакетов:
TorchNumPySymPyTransformersApex trainer.py содержит код для точной настройки предварительно обученных языковых моделей. Пожалуйста, измените следующие параметры для работы:
language : предварительно обученный язык.Model_Type : mbart или marian.path1 и path2 : Путь обучения и данные проверки.max_input_length и max_output_length : 1024 для модели Mbart и 512 для модели Marian-MT.model_name : имя модели, которую вы хотите сохранить. evaluator.py содержит код для оценки модели с тонким языком на символических математических данных. Пожалуйста, измените параметр 1-4, так же, как раздел trainer , а также измените следующий параметр:
path : путь тестового набора данных.saved_model : путь сохраненной тонкой модели. src/hf_utils.py содержит код для чтения наборов данных и некоторых утилит для оценки.
Остальная часть Кодекса принята из глубокого обучения для символической математики (Lample et al.).
Наборы данных доступны здесь.
train , valid и test файлы содержат наборы данных обучения, проверки и тестирования для модели MBART.language_data содержит данные для наборов данных обучения, проверки и тестирования модели Marian-MT.distribution_test содержит тестовые файлы для раздела Shiftibution Shift (полиномиальный, тргонометрический и логарифмический). Пожалуйста, цитируйте нас, если вы используете нашу работу в своем исследовании.
@article{noorbakhsh2021pretrained,
title={Pretrained Language Models are Symbolic Mathematics Solvers too!},
author={Kimia Noorbakhsh and Modar Sulaiman and Mahdi Sharifi and Kallol Roy and Pooyan Jamshidi},
journal={arXiv preprint arXiv:2110.03501},
year={2021}
}