Neural Dialogue System
v1.0
“#rnn語言模型 + seq2seq型號,用於回答”
使用LSTM層對複發性神經網絡進行建模,以預測下一個單詞或以前的字符
(即將完成)
(即將完成)
(即將完成)
在char級別使用state_is_tuple
可訓練參數的打印數量
訓練模型
使用估算器
將字符串數據轉換為索引很長時間都不每次都不要這樣做
代碼很髒,我必須清潔它
Seq2Seq中沒有處理儲蓄
繪製損失
添加輟學
最後一批被忽略,沒有到批處理
處理儘早停止