Deep Learning for NLP Crash Course à Abbyy.
Manuel suggéré: méthodes de réseau neuronal en traitement du langage naturel par Yoav Goldberg
Je mets progressivement à la mise à jour et à la traduction des ordinateurs portables en ce moment. Rester en contact.
Analyse des sentiments sur l'ensemble de données de revue de films IMDB: un bref aperçu de l'apprentissage automatique classique pour NLP + introduction par brèche indécemment aux keras.
Version russe:
Version anglaise mise à jour:
Rencontrez le mot incorporation: une méthode non supervisée pour saisir des relations amusantes entre les mots.
Phrases similitude avec le modèle de mot incorpore + traduction machine basée sur des mots sans données parallèles (avec des incorporations de mots de muse).
Version russe:
Version anglaise mise à jour:
Introduction à Pytorch. Mise en œuvre de la régression linéaire des TEP sur Pure Numpy et Pytorch. Implémentations des modèles CBOW, skip-gram, échantillonnage négatif et modèles Word2Vec structurés.
Version russe:
Version anglaise mise à jour:
Introduction aux réseaux convolutionnels. Relations entre les convolutions et les n-grammes. Détecteur de nom de famille simple sur les convolutions au niveau des caractères + visualisations amusantes.
Version russe:
Version anglaise mise à jour:
RNNS pour la classification du texte. Implémentation RNN simple + test de mémorisation. Détecteur de nom de famille dans la configuration multilingue: classificateur LSTM au niveau des caractères.
Version russe:
Version anglaise mise à jour:
RNNS pour le marquage de séquence. Implémentations de tagger partielle basées sur les incorporations de mots et les incorporations de mots au niveau des caractères.
Version russe:
Modèle de langue au niveau des caractéristiques pour les tweets de troll russes Génération: modèle de fenêtre fixe via des convolutions et un modèle RNN.
Modèle de langage conditionnel simple: génération de noms de famille donnée par le langage source.
Et le défi de classification des commentaires toxiques - Appliquer vos compétences à un problème réel.
Version russe:
Modèle de langue au niveau des mots pour la génération de poésie. Des exemples de TEP d'apprentissage par transfert et d'apprentissage multi-tâches s'appliquaient aux modèles de langue.
Version russe:
SEQ2SEQ pour la traduction machine et le sous-titrage de l'image. Encodage de paires d'octets, recherche de faisceau et autres trucs utiles pour la traduction machine.
Version russe:
SEQ2SEQ avec attention pour la traduction machine et le sous-titrage de l'image.
Version russe:
Implémentation du modèle de transformateur pour le résumé de texte. Discussion des réseaux de générateurs de pointeurs pour le résumé de texte.
Version russe:
Systèmes de dialogue axés sur les objectifs. Implémentation du modèle multi-tâches: classificateur d'intention et tagueur de jeton pour Dialogue Manager.
Version russe:
Systèmes de dialogue de conversation générale et DSSM. Mise en œuvre du modèle de réponse aux questions sur l'ensemble de données et modèle de chat de squad sur l'ensemble de données OpenSubtitles.
Version russe:
Modèles pré-entraînés pour diverses tâches: Encodeur de phrases universel pour la similitude des phrases, Elmo pour le marquage de séquence (avec un peu de CRF), Bert pour Swag - raisonnement sur la continuation possible.
Version russe:
Résumé du PNL - Résumé des choses sympas qui sont apparues et qui ne l'ont pas fait dans le cours.