Neural Dialogue System
v1.0
"# RNN-Language-Model + SEQ2SEQ модель для ответа на вопросы"
Использование слоев LSTM для моделирования повторяющейся нейронной сети для прогнозирования следующего слова или char, учитывая предыдущие
(скоро будет завершено)
(скоро будет завершено)
(скоро будет завершено)
Использование State_is_tuple на уровне char
Печать Количество обучаемого параметра
Обучение модели
Используя оценку
Преобразование строковых данных в индексы занимает много времени, чтобы делать это каждый раз каждый раз
Код грязный, я должен его очистить
Сохранение не обрабатывается в SEQ2SEQ
Построение потери
Добавление отсева
Последние партии игнорируются, а не в Batch_size
Справиться с ранней остановкой