Transformers_for_Text_Classification
1.0.0
基于最新的huggingface 出品的transformers v2.2.2代码进行重构。为了保证代码日后可以直接复现而不出现兼容性问题,这里将transformers 放在本地进行调用。
model_type:
在shell文件中修改model_type参数即可指定模型
如,BERT后接FC全连接层,则直接设置model_type=bert ;BERT后接CNN卷积层,则设置model_type=bert_cnn .
在本README的Support中列出了本项目中各个预训练模型支持的model_type 。
最后,在终端直接运行shell文件即可,如:
bash run_classifier.sh
注:在中文RoBERTa、ERNIE、BERT_wwm这三种预训练语言模型中,均使用BERT的model_type进行加载。
dataset文件夹里存放自定义的数据集文件夹,如TestData .utils.py中,仿照class THUNewsProcessor写一个自己的类,如命名为class TestDataProcessor ,并在tasks_num_labels , processors , output_modes三个dict中添加相应内容.TestData .one 2080Ti, 12GB RAM
Python: 3.6.5
PyTorch: 1.3.1
TensorFlow: 1.14.0(仅为了支持TensorBoard,无其他作用)
Numpy: 1.14.6
数据集: THUNews/5_5000
epoch:1
train_steps: 5000
| model | dev set best F1 and Acc | Remark |
|---|---|---|
| bert_base | 0.9308869881728941, 0.9324 | BERT接FC层, batch_size 8, learning_rate 2e-5 |
| bert_base+cnn | 0.9136314735833212, 0.9156 | BERT接CNN层, batch_size 8, learning_rate 2e-5 |
| bert_base+lstm | 0.9369254464106703, 0.9372 | BERT接LSTM层, batch_size 8, learning_rate 2e-5 |
| bert_base+gru | 0.9379539112313108, 0.938 | BERT接GRU层, batch_size 8, learning_rate 2e-5 |
| roberta_large | RoBERTa接FC层, batch_size 2, learning_rate 2e-5 | |
| xlnet_mid | 0.9530066512880131, 0.954 | XLNet接FC层, batch_size 2, learning_rate 2e-5 |
| xlnet_mid+lstm | 0.9269927348553552, 0.9304 | XLNet接LSTM层, batch_size 2, learning_rate 2e-5 |
| xlnet_mid+gru | 0.9494631023945569, 0.9508 | XLNet接GRU层, batch_size 2, learning_rate 2e-5 |
| albert_xlarge_183k |
NPL_PEMDC