Tiefeslernen für NLP
Dieses Tutorial ist eine Einführung der Verwendung von Deep -Learning -Algorithmus im Bereich der Verarbeitung natürlicher Sprache.
Und es wird unter Verwendung von Inhalten (Theorie und Code) aus folgenden Quellen erstellt:
- Deep Learning mit Python, Buch von François Chollet
- Methoden für neuronale Netzwerke in der natürlichen Sprachverarbeitung, Buch von Yoav Goldberg
- CS224D: Deep -Lernen für die Verarbeitung natürlicher Sprache
Üben Sie den Code in Kaggle's Toxic Kommentar Classification Challenge Dataset
Inhaltsverzeichnis
Anwendungsfälle
- Sequenzklassifizierung
- Spracherkennung
- Kategorieklassifizierung (Stimmung, Themen usw.)
- Schlüsselwortklassifizierung (Name-Geschlecht, Ort/Personenname)
- Sequenz zur Sequenz (SEQ2SEQ)
- Übersetzung
- Google Mail Smart Antwort
- Konversations -KI: Chat -Bots
- Andere
- Name, Geschichte, Gedicht, Dialoggenerator
- Bildunterschrift
- Teil des Sprachverzeichnisses
- Nennen Sie Entitätserkennung
Systemeinrichtung
- Python 3.6
- Pip
- Virtualenv
- Bibliotheken:
- Keras
- Tensorflow
- Jupyter
- Matplotlib
Datensätze zum Spielen
- IMDB -Datensatz
- Kaggle (Challenge der Toxic Kommentarklassifizierung) Wikipedia Kommentar Datensatz
- Ubuntu -Dialogkörper
- Übersetzungsdatensatz
- Andere Datensätze
Datenanalyse
- Allgemeine Analyse
Sequenzdarstellung
- Darstellung
- Eine heiße Kodierung
- Worteinbettungen
- Vor ausgebildete Einbettungen
Modelle
- Einbettung in das Klassenmodell 1
- Einbetten angeschlossen mit 1 Schicht RNN (rezidivierendes neuronales Netzwerk) Modell 2 und Modell 2 erweitert
- Bidirektionales RNN -Modell 3 und Modell 3 erweitert
Moderne RNN -Architektur
- Langes Kurzzeitgedächtnis (LSTM)
- Gater Recurrent Unit (Gru)
- SEQ2SEQ
- Aufmerksamkeit
- Strahlsuche
Keras
- API & Keywords
- Optimierer
- Verlust
- Aktivierung
- Metriken
- Modell für Produktion und Inferenz einsetzen
Modelloptimierungstechniken
- Ausfallen
- Abgeschnittene Backpropagation durch die Zeit (TBPTT)
- Verschwandungsgradientenproblem