NLP-Papernotes
Чтение документов, связанных с НЛП, при работе, краткой и мыслей. Основной в области понимания прочитанного машины (MRC), ответа на вопросы (QA), многодокументированного MRC, ретривера (IR) и ранжирования.
Основные понятия
- LSA , Ссылки в Википедии, введение в латентный семантический анализ, индексация с помощью скрытого семантического анализа, CuHK Latent Semantic Indexing (LSI) Пример, Cuhk Ppt, Stanford NLP Ir-Book Latent-Semancic-индексирование.
- LDA , Ссылки в Википедии, LDA Моделирование темы: объяснение, моделирование темы и скрытое распределение дирихлета (LDA) в Python, Paper Litent Dirichlet, ваше руководство по ассигнованиям с латентным дирихлетом, тематическое моделирование с использованием скрытого распределения дирихле (LDA) и Гриббс -выборки пояснили (Python).
- SVD , ссылки в Википедии,
Языковая модель
Посещение Томаса Миколова Google Scholar, чтобы получить связанные документы.
Список других документов:
- Нейронная вероятностная языковая модель
Модели в стиле Берта, резюме Ppt.
- БЕРТ
- Xlnet
- Структберт
- Spanbert
- Семберт
- Роберта
- Альберт
MRC & QA
Резюме Ppt.
ACL 2019
Растилляция знаний (KD)
KD похож на сглаживание метки, введение KD из следующих блогов:
- Нейронная сеть дистиллятора
- Меньше, быстрее, дешевле, легче: представлен дистилберта, дистиллированная версия Bert
- Нажмите на темные знания, используя нейронные сети - дистилляция знаний
- Знания дистилляция
MS MARCO
Г-жа Марко Лидеры, несколько общественных бумажных моделей, написанных на GitHub MSMARCO-MRC-Analysis
Поиск перехода
- Дуэт: [arxiv], [ppt], [Примечания]
- Дуэт V2
Оптимизатор
Книжная полка
- 《Глубокое обучение》
- 《Глубокое обучение (中文版)》
- 《Математика для машинного обучения》
- 《Обучение ранжированию для получения информации》
- 《GDL-генеративное глубокое обучение》
- 《Введение в поиск информации》
- 《Word2VEC Математические теории》
- 《TensorFlow2 深度学习》 [Код]