Neural Dialogue System
v1.0
"# RNN-Sprache-Modell + SEQ2SEQ-Modell zur Beantwortung von Frage"
Verwenden von LSTM -Ebenen zum Modellieren eines wiederkehrenden neuronalen Netzwerks, um das nächste Wort oder die Vorhersage der vorherigen vorherzusagen
(wird bald fertig sein)
(wird bald fertig sein)
(wird bald fertig sein)
Verwenden Sie state_is_tuple in char -Ebene
Druckzahl von trainierbaren Parametern
Training des Modells
Mit Schätzer
Das Konvertieren von Zeichenfolgendaten in die Indizes dauert lange, um dies nicht jedes Mal zu tun
Code ist schmutzig. Ich muss es reinigen
Das Speichern wird in SEQ2SEQ nicht behandelt
Verlust aufweisen
Hinzufügen von Dropout
Die letzten Chargen werden ignoriert, ohne zu batch_size zu gelangen
Frühzeitig anhalten