differentiable proving
1.0.0
これは、ペーパーのコードとデータを含むリポジトリです。
K. Noorbakhsh、M。Sulaiman、M。Sharifi、K。Roy、P。Jamshidi。事前に保護された言語モデルは、象徴的な数学ソルバーでもあります!
プロジェクトWebサイト
このコードは、次のパッケージに依存します。
TorchNumPySymPyTransformersApex trainer.pyは、事前に訓練された言語モデルを微調整するためのコードが含まれています。実行するために次のパラメーターを変更してください。
language :事前に訓練された言語。Model_Type :MBARTまたはMARIAN。path1およびpath2 :トレーニングのパスと検証データ。max_input_lengthおよびmax_output_length :MBARTモデルでは1024、Marian-MTモデルでは512。model_name :保存するモデルの名前。 evaluator.pyには、シンボリック数学データの微調整された言語モデルを評価するためのコードが含まれています。 trainerセクションと同じパラメーター1-4を変更し、次のパラメーターも変更してください。
path :テストデータセットのパス。saved_model :保存された微調整モデルのパス。 src/hf_utils.pyには、データセットを読み取るためのコードと評価のためのいくつかのユーティリティが含まれています。
コードの残りの部分は、象徴的な数学の深い学習から採用されています(Lample et al。)。
データセットはこちらから入手できます。
train 、 valid 、 testファイルには、MBARTモデルのトレーニング、検証、およびテストデータセットが含まれています。language_dataには、Marian-MTモデルのトレーニング、検証、およびテストデータセットのデータが含まれています。distribution_testは、分布シフトセクション(多項式、Trgonometric、対数)のテストファイルが含まれます。 あなたがあなたの研究で私たちの仕事を使うならば、私たちを引用してください。
@article{noorbakhsh2021pretrained,
title={Pretrained Language Models are Symbolic Mathematics Solvers too!},
author={Kimia Noorbakhsh and Modar Sulaiman and Mahdi Sharifi and Kallol Roy and Pooyan Jamshidi},
journal={arXiv preprint arXiv:2110.03501},
year={2021}
}