differentiable proving
1.0.0
这是一个包含本文的代码和数据的存储库:
K. Noorbakhsh,M。Sulaiman,M。Sharifi,K。Roy和P. Jamshidi。审慎的语言模型也是符号数学求解器!
项目网站
此代码取决于以下软件包:
TorchNumPySymPyTransformersApex trainer.py包含用于微调预训练的语言模型的代码。请修改以下参数以进行运行:
language :预训练的语言。Model_Type :Mbart或Marian。path1和path2 :训练和验证数据的路径。max_input_length和max_output_length :1024用于MBART模型,Marian-MT模型为512。model_name :要保存的模型的名称。 evaluator.py包含用于评估符号数学数据的微调语言模型的代码。请修改参数1-4与trainer部分相同,并修改以下参数:
path :测试数据集的路径。saved_model :保存微型模型的路径。 src/hf_utils.py包含用于读取数据集的代码和一些用于评估的实用程序。
该代码的其余部分是从符号数学的深度学习中采用的(Lample等人)。
数据集可在此处提供。
train , valid和test文件包含MBART模型的培训,验证和测试数据集。language_data包含Marian-MT模型的培训,验证和测试数据集的数据。distribution_test包含分发偏移部分的测试文件(多项式,TRGONOMETRIC和GOORGARITHMIC)。 如果您在研究中使用我们的工作,请引用我们。
@article{noorbakhsh2021pretrained,
title={Pretrained Language Models are Symbolic Mathematics Solvers too!},
author={Kimia Noorbakhsh and Modar Sulaiman and Mahdi Sharifi and Kallol Roy and Pooyan Jamshidi},
journal={arXiv preprint arXiv:2110.03501},
year={2021}
}