
- Pour les tâches de science des données complètes, les documents, etc., veuillez consulter le référentiel de science des données.
- Pour les algorithmes d'apprentissage automatique, veuillez consulter le référentiel d'apprentissage automatique.
- Pour les algorithmes d'apprentissage en profondeur, veuillez consulter le référentiel d'apprentissage en profondeur.
- Pour la vision par ordinateur, veuillez consulter le référentiel de vision par ordinateur.
Dossiers avec tous les matériaux pour une tâche / domaine spécifique
Techniques de PNL modernes, des réseaux de neurones récurrents et des incorporations de mots aux transformateurs et à l'auto-atténuer. Les couvertures ont appliqué des sujets tels que les questions de réponse et de génération de texte.
Il s'agit d'une extension du cours de traitement du langage naturel (ML pour) enseigné à la Yandex School of Data Analysis (YSDA). Pour l'instant, seule une partie des sujets est susceptible d'être couverte ici.
Ce cours couvrira les technologies de moteur de recherche, qui jouent un rôle important dans toutes les applications d'exploration de données impliquant des données texte pour deux raisons. Premièrement, bien que les données brutes puissent être importantes pour un problème particulier, il s'agit souvent d'un sous-ensemble relativement faible des données pertinentes, et un moteur de recherche est un outil essentiel pour découvrir rapidement un petit sous-ensemble de données de texte pertinentes dans une grande collecte de texte. Deuxièmement, des moteurs de recherche sont nécessaires pour aider les analystes à interpréter tous les modèles découverts dans les données en leur permettant d'examiner les données de texte originales pertinentes pour donner un sens à tout modèle découvert. Vous apprendrez les concepts de base, les principes et les principales techniques de la récupération de texte, qui est la science sous-jacente des moteurs de recherche.
Référentiel officiel pour le «traitement pratique du langage naturel» par O'Reilly Media
Disponible en tant que livre: NLP dans Python - Guide QuickStart
| Titre | Description |
|---|---|
| ACL | à Vimeo |
| [Stanford CS224N: Traitement du langage naturel avec apprentissage en profondeur | Hiver 2021] (https://www.youtube.com/playlist?list=ploromvodv4rosh4v6133s9lfprhjembmj) |
| Traitement du langage naturel (NLP) Zero à Hero | par Tensorflow |
| Zero to Hero: NLP avec Tensorflow et Keras (GDG Sofia Meetup) | |
| Traitement du langage naturel | Ce contenu est basé sur la classe de traitement accéléré du langage naturel accéléré. Des diapositives, des cahiers et des ensembles de données sont disponibles sur GitHub |
Je suis un chercheur scientifique chez Google. Je blogue sur le traitement du langage naturel et l'apprentissage automatique.
Une liste organisée de blogs d'ingénierie
Le gradient est une organisation avec les missions pour faciliter la part de quiconque à se renseigner sur l'IA et à faciliter la discussion au sein de la communauté de l'IA. Nous avons été fondés en 2017 par un groupe d'étudiants et de chercheurs au Stanford AI Lab.
| Titre | Description |
|---|---|
| Exemples d'apprentissage en profondeur de Nvidia pour les noyaux de tenseur - Traitement du langage naturel | Exemples d'apprentissage en profondeur |
| Traitement du langage naturel avec transformateurs | Cahiers et documents pour le livre O'Reilly "Traitement du langage naturel avec transformateurs" |
| Références NLP impressionnantes | Une liste organisée de ressources dédiées à la distillation des connaissances, au système de recommandation, en particulier au traitement du langage naturel (PNLP) |
| NLP - tutoriel | |
| Tutoriels de processus de langue naturelle | |
| PNL avec Python | Scikit-Learn, NLTK, Spacy, Gensim, TextBlob et plus ... |
| PNLP et data science github Repository Spotlight | Spottoms quotidiens de certains référentiels sous-estimés de la PNL et de la science des données GitHub. |
| NLP 101: un référentiel de ressources pour l'apprentissage en profondeur et le traitement du langage naturel | Ce document est rédigé pour ceux qui ont l'enthousiasme pour l'apprentissage en profondeur dans le traitement du langage naturel. S'il y a de bonnes recommandations ou suggestions, j'essaierai d'en ajouter plus. |
| PNL-Progress | Référentiel pour suivre les progrès dans le traitement du langage naturel (NLP), y compris les ensembles de données et l'état actuel de l'art pour les tâches NLP les plus courantes. |
| Visage étreint | Repo public pour les articles de blog HF |
| Allennlp | Une bibliothèque de recherche NLP open source, construite sur Pytorch. Allenai.org |
Bibliothèques NLP, cadres, modules
| Titre | Description |
|---|---|
| Boîte à outils en langage naturel (NLTK) | NLTK - The Natural Language Toolkit - est une suite de modules Python open source, d'ensembles de données et de tutoriels soutenant la recherche et le développement dans le traitement du langage naturel. |
| flair |
Un cadre très simple pour le traitement du langage naturel à la pointe de la technologie (PNL). Flair est: |
| textique | textacy est une bibliothèque Python pour effectuer une variété de tâches de traitement du langage naturel (NLP), construites sur la bibliothèque spacy haute performance. Avec les principes fondamentaux --- Tokenisation, le marquage d'une partie du discours, l'analyse de dépendance, etc. --- Délégué à une autre bibliothèque, textacy se concentre principalement sur les tâches qui ont précédé et suivent après. |
| Allennlp | La bibliothèque de recherche NLP, construite sur Pytorch, pour développer des modèles d'apprentissage en profondeur de pointe sur une grande variété de tâches linguistiques. |
| Nlpgym | NLPGYM est une boîte à outils pour combler l'écart entre les applications de RL et NLP. Cela vise à faciliter la recherche et l'analyse comparative de l'application DRL sur les tâches de traitement du langage naturel. La boîte à outils fournit des environnements interactifs pour les tâches NLP standard telles que le marquage de séquence, la réponse aux questions et la classification des séquences. |
| Gensim |
| Titre | Description |
|---|---|
| PNL-tutorial | Tutoriel de traitement du langage naturel pour les chercheurs en profondeur |
| Traitement du langage naturel dans Python Tutoriel | Comparaison des comédiens debout en utilisant le traitement du langage naturel |
? 100 papiers PNL à lire
? Sci-Hub (papiers)
? Horaire du séminaire de Stanford, NLP
? CS224N: Traitement du langage naturel avec apprentissage en profondeur
? CIS 700-008 - Fiction interactive et génération de texte
? NLP de Harvard
? Le transformateur illustré
Implémentation d'un réseau de neurones de flux d'attention bidirectionnel comme référence sur Squad, améliorant la mise en œuvre du modèle de Chris Chute, ajoutant des entrées de caractéristiques de mots comme décrit dans l'article d'origine et améliorant le code de Gauthierdmns.