تم إعادة تمثيلها بناءً على أحدث كود المحولات V2.2.2 التي تنتجها HuggingFace. لضمان استنساخ الكود مباشرة في المستقبل دون مشاكل التوافق ، يتم وضع المحولات محليًا للاتصال.
model_type:
قم بتعديل معلمة model_type في ملف shell لتحديد النموذج
على سبيل المثال ، إذا تم اتباع BERT بطبقة اتصال FC FULL ، يتم تعيين model_type=bert مباشرة ؛ يتبع BERT طبقة CNN CNORSTIONAL ، model_type=bert_cnn تم تعيينه مباشرة.
يتم سرد model_type بدعم من كل نماذج مسبقة في هذا المشروع في Support هذا ReadMe.
أخيرًا ، فقط قم بتشغيل ملف shell مباشرة في المحطة ، مثل:
bash run_classifier.sh
ملاحظة : في نماذج اللغة الثلاثة المدربة مسبقًا من روبرتا الصينية وإرني و Bert_WWM ، يتم استخدام جميع Bert Model_type للتحميل.
dataset ، مثل TestData .utils.py في دليل الجذر ، اكتب فئتك الخاصة وفقًا class THUNewsProcessor ، مثل اسم class TestDataProcessor ، وأضف المحتوى المقابل إلى DICTS tasks_num_labels ، processors ، و output_modes .TestData .واحد 2080TI ، ذاكرة وصول عشوائي 12 جيجابايت
بيثون: 3.6.5
Pytorch: 1.3.1
TensorFlow: 1.14.0 (لدعم Tensorboard فقط ، لا توجد وظيفة أخرى)
Numpy: 1.14.6
مجموعة البيانات: Thunews/5_5000
العصر: 1
Train_steps: 5000
| نموذج | مجموعة DEV أفضل F1 و ACC | ملاحظة |
|---|---|---|
| Bert_Base | 0.9308869881728941 ، 0.9324 | Bert Connection FC Layer ، Batch_size 8 ، Learning_Rate 2E-5 |
| BERT_BASE+CNN | 0.9136314735833212 ، 0.9156 | يتصل Bert بطبقة CNN ، Batch_size 8 ، Learning_Rate 2E-5 |
| BERT_BASE+LSTM | 0.9369254464106703 ، 0.9372 | يتصل Bert بطبقة LSTM ، Batch_size 8 ، Learning_Rate 2E-5 |
| BERT_BASE+GRU | 0.9379539112313108 ، 0.938 | Bert متصل بطبقة GRU ، Batch_size 8 ، Learning_Rate 2E-5 |
| Roberta_large | Roberta Connection FC Layer ، Batch_size 2 ، Learning_Rate 2E-5 | |
| xlnet_mid | 0.9530066512880131 ، 0.954 | XLNET Connection FC Layer ، Batch_size 2 ، Learning_rate 2E-5 |
| XLNET_MID+LSTM | 0.9269927348553552 ، 0.9304 | يتصل XLNET بطبقة LSTM ، Batch_size 2 ، Learning_Rate 2E-5 |
| XLNET_MID+GRU | 0.9494631023945569 ، 0.9508 | xlnet متصل بطبقة GRU ، Batch_size 2 ، Learning_Rate 2E-5 |
| Albert_xlarge_183k |
npl_pemdc