นี่คือการใช้งาน Pytorch ของโมเดลหม้อแปลงใน "ความสนใจคือสิ่งที่คุณต้องการ" (Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin, Arxiv, 2017)
ลำดับใหม่ในการจัดลำดับเฟรมเวิร์กใช้ กลไกการใส่ใจในตนเอง แทนที่จะใช้การดำเนินการ convolution หรือโครงสร้างที่เกิดขึ้นซ้ำและบรรลุประสิทธิภาพที่ล้ำสมัยใน งานการแปลภาษาอังกฤษเป็นภาษาอังกฤษไปยังเยอรมัน (2017/06/12)
การใช้งาน TensorFlow อย่างเป็นทางการสามารถพบได้ใน: Tensorflow/Tensor2tensor
หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับกลไกการดูแลตนเองคุณสามารถอ่าน "การฝังประโยคที่มีโครงสร้างด้วยตนเองที่มีโครงสร้าง"
การฝึกอบรมสนับสนุนโครงการและการแปลด้วยรูปแบบที่ผ่านการฝึกอบรมแล้ว
โปรดทราบว่าโครงการนี้ยังคงเป็นงานที่กำลังดำเนินอยู่
ชิ้นส่วนที่เกี่ยวข้องกับ BPE ยังไม่ได้ทดสอบอย่างเต็มที่
หากมีข้อเสนอแนะหรือข้อผิดพลาดใด ๆ อย่าลังเลที่จะยิงปัญหาเพื่อแจ้งให้เราทราบ -
ตัวอย่างของการฝึกอบรมสำหรับงานการแปล WMT'16 Multimodal (http://www.statmt.org/wmt16/multimodal-task.html)
# conda install -c conda-forge spacy
python -m spacy download en
python -m spacy download depython preprocess.py -lang_src de -lang_trg en -share_vocab -save_data m30k_deen_shr.pklpython train.py -data_pkl m30k_deen_shr.pkl -log m30k_deen_shr -embs_share_weight -proj_share_weight -label_smoothing -output_dir output -b 256 -warmup 128000 -epoch 400python translate.py -data_pkl m30k_deen_shr.pkl -model trained.chkpt -output prediction.txtเนื่องจากอินเทอร์เฟซไม่ได้รวมคุณต้องสลับการเรียกใช้ฟังก์ชันหลักจาก
main_wo_bpeเป็นmain
python preprocess.py -raw_dir /tmp/raw_deen -data_dir ./bpe_deen -save_data bpe_vocab.pkl -codes codes.txt -prefix deenpython train.py -data_pkl ./bpe_deen/bpe_vocab.pkl -train_path ./bpe_deen/deen-train -val_path ./bpe_deen/deen-val -log deen_bpe -embs_share_weight -proj_share_weight -label_smoothing -output_dir output -b 256 -warmup 128000 -epoch 400