Dies ist die Lösung für die Zhihu Machine Learning Challenge 2017. Wir haben den Champion von 963 Teams gewonnen.
pip2 install -r requirements.txt Möglicherweise benötigen Sie tf.contrib.keras.preprocessing.sequence.pad_sequences für die Datenvorverarbeitung.
python2 -m visdom.serverÄndern Sie den Datenpfad in der zugehörigen Datei
python scripts/data_process/embedding2matrix.py main char_embedding.txt char_embedding.npz
python scripts/data_process/embedding2matrix.py main word_embedding.txt word_embedding.npz Es ist Speicherverbrauch. Stellen Sie sicher, dass Sie Speicher von mehr als 32 g haben.
python scripts/data_process/question2array.py main question_train_set.txt train.npz
python scripts/data_process/question2array.py main question_eval_set.txt test.npzpython scripts/data_process/label2id.py main question_topic_train_set.txt labels.jsonpython scripts/data_process/get_val.py Ändern Sie config.py für den Modellpfad
Pfad zu den von uns verwendeten Modellen:
models/MultiCNNTextBNDeep.pymodels/LSTMText.pymodels/RCNN.pymodels/CNNText_inception.pymodels/FastText3.py # LSTM char
python2 main.py main --max_epoch=5 --plot_every=100 --env= ' lstm_char ' --weight=1 --model= ' LSTMText ' --batch-size=128 --lr=0.001 --lr2=0 --lr_decay=0.5 --decay_every=10000 --type_= ' char ' --zhuge=True --linear-hidden-size=2000 --hidden-size=256 --kmax-pooling=3 --num-layers=3 --augument=False
# LSTM word
python2 main.py main --max_epoch=5 --plot_every=100 --env= ' lstm_word ' --weight=1 --model= ' LSTMText ' --batch-size=128 --lr=0.001 --lr2=0.0000 --lr_decay=0.5 --decay_every=10000 --type_= ' word ' --zhuge=True --linear-hidden-size=2000 --hidden-size=320 --kmax-pooling=2 --augument=False
# RCNN char
python2 main.py main --max_epoch=5 --plot_every=100 --env= ' rcnn_char ' --weight=1 --model= ' RCNN ' --batch-size=128 --lr=0.001 --lr2=0 --lr_decay=0.5 --decay_every=5000 --title-dim=1024 --content-dim=1024 --type_= ' char ' --zhuge=True --kernel-size=3 --kmax-pooling=2 --linear-hidden-size=2000 --debug-file= ' /tmp/debugrcnn ' --hidden-size=256 --num-layers=3 --augument=False
# RCNN word
main.py main --max_epoch=5 --plot_every=100 --env= ' RCNN-word ' --weight=1 --model= ' RCNN ' --zhuge=True --num-workers=4 --batch-size=128 --model-path=None --lr2=0 --lr=1e-3 --lr-decay=0.8 --decay-every=5000 --title-dim=1024 --content-dim=512 --kernel-size=3 --debug-file= ' /tmp/debugrc ' --kmax-pooling=1 --type_= ' word ' --augument=False
# CNN word
python main.py main --max_epoch=5 --plot_every=100 --env= ' MultiCNNText ' --weight=1 --model= ' MultiCNNTextBNDeep ' --batch-size=64 --lr=0.001 --lr2=0.000 --lr_decay=0.8 --decay_every=10000 --title-dim=250 --content-dim=250 --weight-decay=0 --type_= ' word ' --debug-file= ' /tmp/debug ' --linear-hidden-size=2000 --zhuge=True --augument=False
# inception word
python2 main.py main --max_epoch=5 --plot_every=100 --env= ' inception-word ' --weight=1 --model= ' CNNText_inception ' --zhuge=True --num-workers=4 --batch-size=512 --model-path=None --lr2=0 --lr=1e-3 --lr-decay=0.8 --decay-every=2500 --title-dim=1200 --content-dim=1200 --type_= ' word ' --augument=False
# inception char
python2 main.py main --max_epoch=5 --plot_every=100 --env= ' inception-char ' --weight=1 --model= ' CNNText_inception ' --zhuge=True --num-workers=4 --batch-size=512 --model-path=None --lr2=0 --lr=1e-3 --lr-decay=0.8 --decay-every=2500 --title-dim=1200 --content-dim=1200 --type_= ' char ' --augument=False
# FastText3 word
python2 main.py main --max_epoch=5 --plot_every=100 --env= ' fasttext3-word ' --weight=5 --model= ' FastText3 ' --zhuge=True --num-workers=4 --batch-size=512 --lr2=1e-4 --lr=1e-3 --lr-decay=0.8 --decay-every=2500 --linear_hidden_size=2000 --type_= ' word ' --debug-file=/tmp/debugf --augument=False
In den meisten Fällen könnte die Partitur durch Finetune gesteigert werden. Zum Beispiel:
python2 main.py main --max_epoch=2 --plot_every=100 --env= ' LSTMText-word-ft ' --model= ' LSTMText ' --zhuge=True --num-workers=4 --batch-size=256 --model-path=None --lr2=5e-5 --lr=5e-5 --decay-every=5000 --type_= ' word ' --model-path= ' checkpoints/LSTMText_word_0.409196378421 ' Hinzufügen --augument im Trainingsbefehl.
| Modell | Punktzahl |
|---|---|
| CNN_Word | 0,4103 |
| Rnn_word | 0,4119 |
| Rcnn_word | 0,4115 |
| Inceptin_Word | 0,4109 |
| FastText_word | 0,4091 |
| Rnn_char | 0,4031 |
| Rcnn_char | 0,4037 |
| Inception_char | 0,4024 |
| Rcnn_word_aug | 0,41344 |
| Cnn_word_aug | 0,41051 |
| Rnn_word_aug | 0,41368 |
| INCETPION_WORD_AUG | 0,41254 |
| FastText3_word_aug | 0,40853 |
| Cnn_char_aug | 0,38738 |
| Rcnn_char_aug | 0,39854 |
Mit dem Modellsemble kann es bis zu 0,433 erreichen.
LSTMText , RCNN , MultiCNNTextBNDeep , FastText3 , CNNText_inception # LSTM
python2 test.1.py main --model= ' LSTMText ' --batch-size=512 --model-path= ' checkpoints/LSTMText_word_0.411994005382 ' --result-path= ' /data_ssd/zhihu/result/LSTMText0.4119_word_test.pth ' --val=False --zhuge=True
python2 test.1.py main --model= ' LSTMText ' --batch-size=256 --type_=char --model-path= ' checkpoints/LSTMText_char_0.403192339135 ' --result-path= ' /data_ssd/zhihu/result/LSTMText0.4031_char_test.pth ' --val=False --zhuge=True
# RCNN
python2 test.1.py main --model= ' RCNN ' --batch-size=512 --model-path= ' checkpoints/RCNN_word_0.411511574999 ' --result-path= ' /data_ssd/zhihu/result/RCNN_0.4115_word_test.pth ' --val=False --zhuge=True
python2 test.1.py main --model= ' RCNN ' --batch-size=512 --model-path= ' checkpoints/RCNN_char_0.403710422571 ' --result-path= ' /data_ssd/zhihu/result/RCNN_0.4037_char_test.pth ' --val=False --zhuge=True
# DeepText
python2 test.1.py main --model= ' MultiCNNTextBNDeep ' --batch-size=512 --model-path= ' checkpoints/MultiCNNTextBNDeep_word_0.410330780091 ' --result-path= ' /data_ssd/zhihu/result/DeepText0.4103_word_test.pth ' --val=False --zhuge=True
# more to go ... Weitere Informationen finden Sie unter notebooks/val_ensemble.ipynb und notebooks/test_ensemble.ipynb
main.py : main (für das Training)config.py : config -Dateitest.1.py : Für Testdata/ : Für den Datenladerscripts/ : Für die Datenvorverarbeitungutils/ : einschließlich Berechnung von Score und Wrapper zur Visualisierung.models/ : Modellemodels/BasicModel : Basismodell für Modelle.models/MultiCNNTextBNDeep : CNNmodels/LSTMText : RNNmodels/RCNN : RCNNmodels/CNNText_inception Inceptionmodels/MultiModelALL和models/MultiModelAll2rep.py : Code für die Reproduktion.del/ : Methoden fehlschlagen oder nicht verwendet.notebooks/ : Notizbücher.https://pan.baidu.com/s/1mjvtjgs Passwd: Tayb