Deep Learning für den NLP -Crashkurs bei Abbyy.
Vorgeschlagenes Lehrbuch: Methoden für neuronale Netzwerke in der Verarbeitung natürlicher Sprache von Yoav Goldberg
Ich aktualisiere und übersetze die Notizbücher im Moment allmählich. Bleib in Kontakt.
Sentiment -Analyse zum Datensatz des IMDB Movie Review: Ein kurzer Überblick über das klassische maschinelle Lernen für NLP + unanständig kurzes Intro zu Keras.
Russische Version:
Aktualisierte englische Version:
Treffen Sie das Wort Einbettung: Eine unbeaufsichtigte Methode, um einige lustige Beziehungen zwischen Wörtern aufzunehmen.
Phrasen Ähnlichkeit mit Word -Einbettungsdings Modell + Wortbasierte maschinelle Übersetzung ohne parallele Daten (mit Muse -Wort -Einbettungen).
Russische Version:
Aktualisierte englische Version:
Einführung in Pytorch. Implementierung der linearen Regression von PETs auf reinem Numpy und Pytorch. Implementierungen von CBOW-, Skip-Gram-, Negativen-Stichproben- und strukturierten Word2VEC-Modellen.
Russische Version:
Aktualisierte englische Version:
Einführung in Faltungsnetzwerke. Beziehungen zwischen Konvolutionen und N-Gramm. Einfacher Nachname-Detektor für Konvolutionen auf Charakterebene + lustige Visualisierungen.
Russische Version:
Aktualisierte englische Version:
RNNs für die Textklassifizierung. Einfacher RNN -Implementierung + Memorisierungstest. Nachname-Detektor im mehrsprachigen Setup: LSTM-Klassifikator auf Charakterebene.
Russische Version:
Aktualisierte englische Version:
RNNs für die Sequenzmarkierung. Teil der Beschwörungs-Tagger-Implementierungen basierend auf Worteinbettungen und Worteinbettungen auf Zeichenebene.
Russische Version:
Sprachmodell auf Charakterebene für russische Troll-Tweets Generierung: Fest-Window-Modell über Konvolutionen und RNN-Modell.
Einfaches bedingte Sprachmodell: Nachname Generation angegebene Quellsprache.
Und toxische Kommentarklassifizierung Herausforderung - um Ihre Fähigkeiten auf ein reales Problem anzuwenden.
Russische Version:
Sprachmodell auf Wortebene für die Erzeugung von Gedichten. PET-Beispiele für Transferlernen und Multitasking-Lernen, die auf Sprachmodelle angewendet werden.
Russische Version:
SEQ2SEQ für maschinelle Übersetzung und Bildunterschrift. Byte-Pair-Codierung, Strahlsuche und andere nützliche Sachen für die maschinelle Übersetzung.
Russische Version:
SEQ2SEQ mit Aufmerksamkeit für maschinelle Übersetzung und Bildunterschrift.
Russische Version:
Implementierung des Transformatormodells für die Textübersicht. Diskussion von Zeigergeneratornetzwerken für die Textübersicht.
Russische Version:
Zielorientierte Dialogsysteme. Implemention des Multi-Task-Modells: Intent-Klassifizierer und Token-Tagger für Dialog Manager.
Russische Version:
Allgemeine Konversationsdialogsysteme und DSSMs. Implementierung des Fragenbeantwortermodells im Squad-Datensatz und des Chit-Chat-Modells auf OpenSuBTitles-Datensatz.
Russische Version:
Vorbereitete Modelle für verschiedene Aufgaben: Universeller Satz Encoder für die Satzähnlichkeit, ELMO für Sequenz -Markierungen (mit ein bisschen CRF), Bert für Swag - Argumentation über eine mögliche Fortsetzung.
Russische Version:
NLP -Zusammenfassung - Zusammenfassung cooler Sachen, die im Kurs erschienen und nicht.