attention is all you need pytorch
1.0.0
이것은 "주의가 필요하다"(Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin, Arxiv, 2017)에서 변압기 모델의 Pytorch 구현입니다.
서열 프레임 워크에 대한 새로운 서열은 컨볼 루션 조작 또는 재발 구조 대신 자체 변환 메커니즘을 활용하고 WMT 2014 영어-독일어 번역 작업 에 대한 최첨단 성능을 달성합니다. (2017/06/12)
공식 Tensorflow 구현은 Tensorflow/Tensor2tensor에서 찾을 수 있습니다.
자기 변환 메커니즘에 대해 자세히 알아 보려면 "구조적 자기성 문장 임베딩"을 읽을 수 있습니다.
이 프로젝트는 지금 훈련 된 모델로 교육 및 번역을 지원합니다.
이 프로젝트는 여전히 진행중인 작업입니다.
BPE 관련 부품은 아직 완전히 테스트되지 않았습니다.
제안이나 오류가 있으면 문제를 해결하여 알려주십시오. :)
WMT'16 Multimodal Translation Task (http://www.statmt.org/wmt16/multimodal-task.html)에 대한 교육의 예.
# conda install -c conda-forge spacy
python -m spacy download en
python -m spacy download depython preprocess.py -lang_src de -lang_trg en -share_vocab -save_data m30k_deen_shr.pklpython train.py -data_pkl m30k_deen_shr.pkl -log m30k_deen_shr -embs_share_weight -proj_share_weight -label_smoothing -output_dir output -b 256 -warmup 128000 -epoch 400python translate.py -data_pkl m30k_deen_shr.pkl -model trained.chkpt -output prediction.txt인터페이스가 통합되지 않았으므로 기본 기능 호출을
main_wo_bpe에서main으로 전환해야합니다.
python preprocess.py -raw_dir /tmp/raw_deen -data_dir ./bpe_deen -save_data bpe_vocab.pkl -codes codes.txt -prefix deenpython train.py -data_pkl ./bpe_deen/bpe_vocab.pkl -train_path ./bpe_deen/deen-train -val_path ./bpe_deen/deen-val -log deen_bpe -embs_share_weight -proj_share_weight -label_smoothing -output_dir output -b 256 -warmup 128000 -epoch 400