Neural Dialogue System
v1.0
“#rnn语言模型 + seq2seq型号,用于回答”
使用LSTM层对复发性神经网络进行建模,以预测下一个单词或以前的字符
(即将完成)
(即将完成)
(即将完成)
在char级别使用state_is_tuple
可训练参数的打印数量
训练模型
使用估算器
将字符串数据转换为索引很长时间都不每次都不要这样做
代码很脏,我必须清洁它
Seq2Seq中没有处理储蓄
绘制损失
添加辍学
最后一批被忽略,没有到批处理
处理尽早停止