NLP-Papenoten
Lesen von NLP-bezogenen Papieren bei Arbeit, Zusammenfassung und Gedanken. Hauptfach in Maschinenlesung (MRC), Fragenbeantwortung (QA), Multi-Dokument-MRC, Information Retriever (IR) und Ranking.
Grundkonzepte
- LSA , Referenzen in Wikipedia, eine Einführung in die latente semantische Analyse, Indexierung durch latente semantische Analyse, CUHK Latent Semantic Indexing (LSI) Ein Beispiel, CUHK PPT, Stanford NLP IR-Book latent-semantische Indexing.
- LDA , Referenzen in Wikipedia, LDA -Themenmodellierung: Eine Erklärung, Themenmodellierung und latente Dirichlet -Zuordnung (LDA) in Python, Papierlatent -Dirichlet -Zuweisung, Ihr Leitfaden zur latenten Dirichlet -Zuweisung, Themenmodellierung mit Latent Dirichlet -Zuordnung (LDA) und Gibbs -Sampling, die erläutert wurden!
- SVD , Referenzen in Wikipedia,
Sprachmodell
Besuchen Sie Tomas Mikolov Google Scholar, um verwandte Papiere zu erhalten.
Andere Papiere Liste:
- Ein neuronales probabilistisches Sprachmodell
Modelle im Bert-Stil, Zusammenfassung PPT.
- Bert
- Xlnet
- Structbert
- Spanbert
- Simg
- Roberta
- Albert
MRC & QA
Zusammenfassung ppt.
ACL 2019
Wissensdestillation (KD)
KD ähnelt der Etikett -Glättung, Einführung von KD aus den folgenden Blogs:
- Destiller des neuronalen Netzwerks
- Kleiner, schneller, billiger, leichter: Einführung von Distilbert, eine destillierte Version von Bert
- Tippen Sie mit neuronalen Netzen - Wissensdestillation
- Wissensdestillation
Frau Marco
Frau Marco Langoupboard, mehrere öffentliche Papiermodelle, geschrieben über Github MSMARCO-MRC-Analyse
Durchgangsabnahme
- Duett: [Arxiv], [PPT], [Notizen]
- Duett V2
Optimierer
Bücherregal
- 《Tiefes Lernen》
- 《Deep Learning (中文版)》
- 《Mathematik für maschinelles Lernen》
- 《Lernen zum Abrufen von Informationen》》
- 《GDL-generates tiefes Lernen》
- 《Einführung zum Informationsabruf》
- 《WORD2VEC MATH MATHEMTHEORES》》
- 《TensorFlow2 深度学习》 [Code]