differentiable proving
1.0.0
هذا مستودع يحتوي على رمز وبيانات للورقة:
K. Noorbakhsh ، M. Sulaiman ، M. Sharifi ، K. Roy and P. Jamshidi. نماذج اللغة المسبقة هي حلول رياضيات رمزية أيضًا!
موقع المشروع
يعتمد هذا الرمز على الحزم التالية:
TorchNumPySymPyTransformersApex يحتوي trainer.py على رمز لضبط نماذج اللغة التي تم تدريبها مسبقًا. يرجى تعديل المعلمات التالية للتشغيل:
language : اللغة التي تم تدريبها مسبقًا.Model_Type : mbart أو ماريان.path1 و path2 : مسار التدريب وبيانات التحقق من الصحة.max_input_length و max_output_length : 1024 لنموذج MBART و 512 لنموذج Marian-MT.model_name : اسم النموذج الذي ترغب في حفظه. يحتوي evaluator.py على رمز لتقييم نموذج اللغة الدقيقة على بيانات الرياضيات الرمزية. يرجى تعديل المعلمة 1-4 مثل قسم trainer وكذلك تعديل المعلمة التالية:
path : مسار مجموعة بيانات الاختبار.saved_model : مسار النموذج المحفوظ المدفوع. يحتوي src/hf_utils.py على رمز لقراءة مجموعات البيانات وبعض الأدوات المساعدة للتقييم.
يتم اعتماد بقية الكود من التعلم العميق للرياضيات الرمزية (Lample et al.).
مجموعات البيانات متوفرة هنا.
train valid test على مجموعات بيانات التدريب والتحقق من الصحة والاختبار لنموذج MBART.language_data على بيانات لمجموعات بيانات التدريب والتحقق من صحة واختبار نموذج Marian-MT.distribution_test على ملفات الاختبار لقسم تحول التوزيع (متعدد الحدود ، trgonometric واللوغاريتمي). يرجى الاستشهاد بنا إذا كنت تستخدم عملنا في بحثك.
@article{noorbakhsh2021pretrained,
title={Pretrained Language Models are Symbolic Mathematics Solvers too!},
author={Kimia Noorbakhsh and Modar Sulaiman and Mahdi Sharifi and Kallol Roy and Pooyan Jamshidi},
journal={arXiv preprint arXiv:2110.03501},
year={2021}
}