Neural Dialogue System
v1.0
"# RNN-Language-Model + SEQ2SEQ Modèle pour répondre à des questions"
Utilisation des couches LSTM pour modéliser le réseau neuronal récurrent pour prédire le mot ou le prochain compte donné les précédents
(sera achevé bientôt)
(sera achevé bientôt)
(sera achevé bientôt)
Utilisation de State_is_tuple au niveau char
Nombre d'impression de paramètres formables
Former le modèle
Utilisation de l'estimateur
La conversion des données de chaîne en index met à ne pas le faire à chaque fois
Le code est sale, je dois le nettoyer
La sauvegarde n'est pas gérée dans SEQ2SEQ
Comploter la perte
Ajout de décrochage
Les derniers lots sont ignorés, ne pas arriver à Batch_Size
Gérer l'arrêt anticipé