Neural Dialogue System
v1.0
"# Modelo# RNN-Language-Model + SEQ2SEQ para responder preguntas"
Uso de capas LSTM para modelar una red neuronal recurrente para predecir la siguiente palabra o char dada las anteriores
(se completará pronto)
(se completará pronto)
(se completará pronto)
Usando state_is_tuple en nivel de char
Impresión Número de parámetros capacitables
Entrenando el modelo
Usando estimador
La conversión de datos de cadena a índices tarda mucho en hacerlo cada vez
El código está sucio tengo que limpiarlo
El ahorro no se maneja en SEQ2SEQ
Trama de pérdida
Agregar abandono
Se ignoran los últimos lotes, no llegar a Batch_Size
Manejar la parada temprana