transformer tensorflow
1.0.0
TensorFlow -Implementierung von Aufmerksamkeit ist alles, was Sie brauchen. (2017. 6)

Init-Projekt von HB-Base
.
├── config # Config files (.yml, .json) using with hb-config
├── data # dataset path
├── notebooks # Prototyping with numpy or tf.interactivesession
├── transformer # transformer architecture graphs (from input to logits)
├── __init__.py # Graph logic
├── attention.py # Attention (multi-head, scaled_dot_product and etc..)
├── encoder.py # Encoder logic
├── decoder.py # Decoder logic
└── layer.py # Layers (FFN)
├── data_loader.py # raw_date -> precossed_data -> generate_batch (using Dataset)
├── hook.py # training or test hook feature (eg. print_variables)
├── main.py # define experiment_fn
└── model.py # define EstimatorSpec
Referenz: HB-Config, Dataset, Experimente_FN, Schätzerspec
Kann alle experimentellen Umgebungen kontrollieren.
Beispiel: check-tiny.yml
data :
base_path : ' data/ '
raw_data_path : ' tiny_kor_eng '
processed_path : ' tiny_processed_data '
word_threshold : 1
PAD_ID : 0
UNK_ID : 1
START_ID : 2
EOS_ID : 3
model :
batch_size : 4
num_layers : 2
model_dim : 32
num_heads : 4
linear_key_dim : 20
linear_value_dim : 24
ffn_dim : 30
dropout : 0.2
train :
learning_rate : 0.0001
optimizer : ' Adam ' ('Adagrad', 'Adam', 'Ftrl', 'Momentum', 'RMSProp', 'SGD')
train_steps : 15000
model_dir : ' logs/check_tiny '
save_checkpoints_steps : 1000
check_hook_n_iter : 100
min_eval_frequency : 100
print_verbose : True
debug : False
slack :
webhook_url : " " # after training notify you using slack-webhookcheck-tiny ist ein Datensatz mit etwa 30 Sätzen , die aus Koreanisch ins Englische übersetzt werden. (Empfehlen Sie es zu lesen :)) Anforderungen installieren.
pip install -r requirements.txt
Dann Rohdaten vor dem Prozess.
python data_loader.py --config check-tiny
Schließlich starten Sie mit dem Zug und bewerten Sie das Modell
python main.py --config check-tiny --mode train_and_evaluate
Oder Sie können IWSLT'15 English-Vietnamese-Datensatz verwenden.
sh prepare-iwslt15.en-vi.sh # download dataset
python data_loader.py --config iwslt15-en-vi # preprocessing
python main.py --config iwslt15-en-vi --mode train_and_evalueate # start training
Nach dem Training können Sie das Modell testen.
python predict.py --config {config} --src {src_sentence}$ python predict.py --config check-tiny --src " 안녕하세요. 반갑습니다. "
------------------------------------
Source: 안녕하세요. 반갑습니다.
> Result: Hello . I ' m glad to see you . <s> vectors . <s> Hello locations . <s> will . <s> . <s> you . <s> ✅: Arbeiten
◽: noch nicht getestet.
evaluate : Bewerten Sie die Bewertungsdaten.extend_train_hooks : erweitert die Hooks für das Training.reset_export_strategies : setzt die Exportstrategien mit den neuen_export_strategies zurück.run_std_server : Startet einen TensorFlow -Server und verbindet sich dem Servier -Thread.test : Testen Sie das Training, bewerten und exportieren Sie den Schätzer für einen einzelnen Schritt.train : Passen Sie den Schätzer mit den Trainingsdaten an.train_and_evaluate : schenkles Training und Bewertung. tensorboard --logdir logs

Dongjun Lee ([email protected])