Neural Dialogue System
v1.0
"# RNN-Language-Model + Seq2Seq Model para resposta a perguntas"
Usando camadas LSTM para modelar a rede neural recorrente para prever a próxima palavra ou char, considerando os anteriores
(será concluído em breve)
(será concluído em breve)
(será concluído em breve)
Usando State_is_tuple no nível de char
Número de impressão de parâmetro treinável
Treinando o modelo
Usando estimador
A conversão de dados da string em índices leva muito para não fazê -lo sempre
O código está sujo, eu tenho que limpá -lo
Salvar não é tratado no SEQ2SEQ
Perda de plotagem
Adicionando abandono
Últimos lotes são ignorados, não chegando a Batch_size
Lidar com a parada precoce