NLP machte einfach
Einfache Code -Hinweise zur Erläuterung von NLP -Bausteinen
- Subword -Segmentierungstechniken
- Vergleichen wir verschiedene Tokenizer, dh, NLTK, BPE, Satzstück und Bert -Tokenizer.
- Strahldekodierung
- Strahldekodierung ist für SEQ2SEQ -Aufgaben von wesentlicher Bedeutung. Aber es ist notorisch kompliziert zu implementieren. Hier ist eine relativ einfache, batchfying -Kandidaten.
- Wie man den letzten versteckten Vektor von RNNs richtig bekommt
- Wir werden sehen, wie man die letzten versteckten Zustände von RNNs in Tensorflow und Pytorch bekommt.
- Tensorflow SEQ2SEQ -Vorlage basierend auf der G2P -Aufgabe
- Wir schreiben eine einfache Vorlage für SEQ2Seq mit TensorFlow. Zur Demonstration greifen wir die G2P -Aufgabe an. G2P ist eine Aufgabe, Grapheme (Rechtschreibung) in Phoneme (Aussprache) zu konvertieren. Es ist eine sehr gute Quelle für diesen Zweck, da es für Sie einfach genug ist, aufzusteigen und zu rennen.
- Pytorch SEQ2SEQ -Vorlage basierend auf der G2P -Aufgabe
- Mit PyTorch schreiben wir eine einfache Vorlage für SEQ2SEQ. Zur Demonstration greifen wir die G2P -Aufgabe an. G2P ist eine Aufgabe, Grapheme (Rechtschreibung) in Phoneme (Aussprache) zu konvertieren. Es ist eine sehr gute Quelle für diesen Zweck, da es für Sie einfach genug ist, aufzusteigen und zu rennen.
- [Aufmerksamkeitsmechanismus] (laufende Arbeit)
- POS-Taging mit Bert Feinabstimmung
- Es ist bekannt, dass Bert bei Sequenz -Tagging -Aufgaben wie benannte Entitätserkennung gut ist. Mal sehen, ob es für POS-Taging gilt.
- Ausbruch in einer Minute
- Tropfen ist wohl die beliebteste Regularisierungstechnik im Deep Learning. Überprüfen Sie erneut, wie es funktioniert.
- Ngram LM gegen RNNLM (WIP)
- Datenvergrößerung für Quora -Fragenpaare
- Mal sehen, ob es effektiv ist, die Schulungsdaten in der Aufgabe von Quora -Fragenpaaren zu erweitern.