MemN2N tensorflow
1.0.0
언어 모델링을위한 엔드 투 엔드 메모리 네트워크의 텐서 플로 구현 (섹션 5 참조). Facebook의 원래 토치 코드는 여기에서 찾을 수 있습니다.
이 코드에는 텐서 플로가 필요합니다. data 디렉토리에는 샘플 펜 트리 뱅크 (PTB) 코퍼스 세트가 있으며,이 모델의 품질을 측정하는 데 인기있는 벤치 마크입니다. 그러나 이와 같이 형성되어야하는 자체 텍스트 데이터 세트를 사용할 수 있습니다.
Docker Image Tensorflw/Tensorflow : 최신 GPU를 사용하면 향후 패키지를 파이썬으로 만들어야합니다.
$ pip install future
--show True 옵션을 사용하려면 Python 패키지 progress 설치해야합니다.
$ pip install progress
6 홉과 메모리 크기가 100 인 모델을 훈련 시키려면 다음 명령을 실행하십시오.
$ python main.py --nhop 6 --mem_size 100
모든 교육 옵션을 보려면 실행하십시오.
$ python main.py --help
인쇄 할 것 :
usage: main.py [-h] [--edim EDIM] [--lindim LINDIM] [--nhop NHOP]
[--mem_size MEM_SIZE] [--batch_size BATCH_SIZE]
[--nepoch NEPOCH] [--init_lr INIT_LR] [--init_hid INIT_HID]
[--init_std INIT_STD] [--max_grad_norm MAX_GRAD_NORM]
[--data_dir DATA_DIR] [--data_name DATA_NAME] [--show SHOW]
[--noshow]
optional arguments:
-h, --help show this help message and exit
--edim EDIM internal state dimension [150]
--lindim LINDIM linear part of the state [75]
--nhop NHOP number of hops [6]
--mem_size MEM_SIZE memory size [100]
--batch_size BATCH_SIZE
batch size to use during training [128]
--nepoch NEPOCH number of epoch to use during training [100]
--init_lr INIT_LR initial learning rate [0.01]
--init_hid INIT_HID initial internal state value [0.1]
--init_std INIT_STD weight initialization std [0.05]
--max_grad_norm MAX_GRAD_NORM
clip gradients to this norm [50]
--checkpoint_dir CHECKPOINT_DIR
checkpoint directory [checkpoints]
--data_dir DATA_DIR data directory [data]
--data_name DATA_NAME
data set name [ptb]
--is_test IS_TEST True for testing, False for Training [False]
--nois_test
--show SHOW print progress [False]
--noshow
(선택 사항) 진행률 표시 줄을 보려면 pip 로 progress 설치하십시오.
$ pip install progress
$ python main.py --nhop 6 --mem_size 100 --show True
교육이 완료되면 다음과 같이 테스트하고 검증 할 수 있습니다.
$ python main.py --is_test True --show True
훈련 출력은 다음과 같습니다.
$ python main.py --nhop 6 --mem_size 100 --show True
Read 929589 words from data/ptb.train.txt
Read 73760 words from data/ptb.valid.txt
Read 82430 words from data/ptb.test.txt
{'batch_size': 128,
'data_dir': 'data',
'data_name': 'ptb',
'edim': 150,
'init_hid': 0.1,
'init_lr': 0.01,
'init_std': 0.05,
'lindim': 75,
'max_grad_norm': 50,
'mem_size': 100,
'nepoch': 100,
'nhop': 6,
'nwords': 10000,
'show': True}
I tensorflow/core/common_runtime/local_device.cc:25] Local device intra op parallelism threads: 12
I tensorflow/core/common_runtime/direct_session.cc:45] Direct session inter op parallelism threads: 12
Training |################################| 100.0% | ETA: 0s
Testing |################################| 100.0% | ETA: 0s
{'perplexity': 507.3536108810464, 'epoch': 0, 'valid_perplexity': 285.19489755719286, 'learning_rate': 0.01}
Training |################################| 100.0% | ETA: 0s
Testing |################################| 100.0% | ETA: 0s
{'perplexity': 218.49577035468886, 'epoch': 1, 'valid_perplexity': 231.73457031084268, 'learning_rate': 0.01}
Training |################################| 100.0% | ETA: 0s
Testing |################################| 100.0% | ETA: 0s
{'perplexity': 163.5527845871247, 'epoch': 2, 'valid_perplexity': 175.38771414841014, 'learning_rate': 0.01}
Training |################################| 100.0% | ETA: 0s
Testing |################################| 100.0% | ETA: 0s
{'perplexity': 136.1443535538306, 'epoch': 3, 'valid_perplexity': 161.62522958776597, 'learning_rate': 0.01}
Training |################################| 100.0% | ETA: 0s
Testing |################################| 100.0% | ETA: 0s
{'perplexity': 119.15373237680929, 'epoch': 4, 'valid_perplexity': 149.00768378137946, 'learning_rate': 0.01}
Training |############## | 44.0% | ETA: 378s
Penn TreeBank Corpora의 테스트 세트에 대한 당황.
| 숨겨진 # | # 홉 | 메모리 크기 | MEMN2N (Sukhbaatar 2015) | 이 repo. |
|---|---|---|---|---|
| 150 | 3 | 100 | 122 | 129 |
| 150 | 6 | 150 | 114 | 진행 중 |
Taehoon kim / @carpedm20