
- Para tarefas completas de ciência de dados , materiais, etc., verifique o repositório de ciência de dados.
- Para algoritmos de aprendizado de máquina , verifique o repositório de aprendizado de máquina.
- Para algoritmos de aprendizado profundo, consulte o Repositório de Aprendizagem Deep.
- Para visão computacional , verifique o repositório de visão computacional.
Pastas com todos os materiais para tarefa/domínio específicos
Técnicas modernas de PNL de redes neurais recorrentes e incorporações de palavras a transformadores e auto-distribuição. Capas tópicos aplicados, como perguntas de resposta e geração de texto.
Esta é uma extensão do curso (ML para) de processamento de linguagem natural ensinado na Yandex School of Data Analysis (YSDA). Por enquanto, apenas parte dos tópicos provavelmente será abordada aqui.
Este curso abordará as tecnologias de mecanismos de pesquisa, que desempenham um papel importante em qualquer aplicativo de mineração de dados que envolva dados de texto por dois motivos. Primeiro, embora os dados brutos possam ser grandes para qualquer problema específico, geralmente é um subconjunto relativamente pequeno dos dados relevantes e um mecanismo de pesquisa é uma ferramenta essencial para descobrir rapidamente um pequeno subconjunto de dados de texto relevantes em uma grande coleção de texto. Segundo, são necessários mecanismos de pesquisa para ajudar os analistas a interpretar os padrões descobertos nos dados, permitindo que eles examinem os dados de texto originais relevantes para entender qualquer padrão descoberto. Você aprenderá os conceitos básicos, os princípios e as principais técnicas na recuperação de texto, que é a ciência subjacente dos mecanismos de pesquisa.
Repositório Oficial para 'Processamento Prático de Linguagem Natural' pela O'Reilly Media
Disponível como um livro: PNLP em Python - Guia do QuickStart
| Título | Descrição |
|---|---|
| ACL | no Vimeo |
| [Stanford CS224N: Processamento de linguagem natural com aprendizado profundo | Inverno 2021] (https://www.youtube.com/playlist?list=ploromvodv4rosh4v6133s9lfprhjembmj) |
| Processamento de linguagem natural (NLP) zero para herói | por tensorflow |
| Zero a Hero: PN com Tensorflow e Keras (GDG Sofia Meetup) | |
| Processamento de linguagem natural | Esse conteúdo é baseado na Classe de Processamento de Linguagem Natural Acelerada de Learning Machine (Machine Learning). Slides, cadernos e conjuntos de dados estão disponíveis no GitHub |
Sou cientista de pesquisa no Google. Eu blog sobre processamento de linguagem natural e aprendizado de máquina.
Uma lista com curadoria de blogs de engenharia
O gradiente é uma organização com as missões de facilitar para qualquer pessoa aprender sobre a IA e facilitar a discussão na comunidade de IA. Fomos fundados em 2017 por um grupo de estudantes e pesquisadores no Stanford AI Lab.
| Título | Descrição |
|---|---|
| Exemplos de aprendizado profundo da NVIDIA para núcleos tensores - processamento de linguagem natural | Exemplos de aprendizado profundo |
| Processamento de linguagem natural com transformadores | Caders e materiais para o livro O'Reilly "Processamento de linguagem natural com transformadores" |
| Referências incríveis de PNL | Uma lista com curadoria de recursos dedicados à destilação do conhecimento, sistema de recomendação, especialmente processamento de linguagem natural (PNL) |
| NLP - Tutorial | |
| Tutoriais naturais de processo de linguagem | |
| PNL com Python | Scikit-Learn, NLTK, Spacy, Gensim, TextBlob e muito mais ... |
| PNL e ciência de dados Github Repository Spotlight | Os holofotes diários de alguns repositórios subestimados de PNL e ciência de dados do GitHub. |
| NLP 101: Um repositório de recursos para aprendizado profundo e processamento de linguagem natural | Este documento é redigido para aqueles que têm entusiasmo pelo aprendizado profundo no processamento de linguagem natural. Se houver boas recomendações ou sugestões, tentarei adicionar mais. |
| NLP-Progresso | Repositório para rastrear o progresso no processamento de linguagem natural (PNL), incluindo os conjuntos de dados e o atual ponta das tarefas mais comuns de PNL. |
| Abraçando o rosto | Repo público para postagens de blog de HF |
| Allennlp | Uma biblioteca de pesquisa de PNL de código aberto, construído em Pytorch. Allenai.org |
Bibliotecas de PNL, estruturas, módulos
| Título | Descrição |
|---|---|
| Kit de ferramentas de linguagem natural (NLTK) | O NLTK - The Natural Language Toolkit - é um conjunto de módulos de python de código aberto, conjuntos de dados e tutoriais que apoiam pesquisas e desenvolvimento no processamento de linguagem natural. |
| Flair |
Uma estrutura muito simples para o processamento de linguagem natural (PNL) de última geração. Flair é: |
| Textacy | textacy é uma biblioteca Python para executar uma variedade de tarefas de processamento de linguagem natural (PNL), construída na biblioteca de espaciais de alto desempenho. Com os fundamentos --- tokenização, marcação de parte da fala, análise de dependência etc.--Delegada a outra biblioteca, textacy se concentra principalmente nas tarefas que vêm antes e seguem depois. |
| Allennlp | Biblioteca de Pesquisa da PNL, construída sobre o Pytorch, para o desenvolvimento de modelos de aprendizado profundo de última geração em uma ampla variedade de tarefas linguísticas. |
| NLPGYM | O NLPGYM é um kit de ferramentas para preencher a lacuna entre as aplicações de RL e PNL. Isso tem como objetivo facilitar a pesquisa e o benchmarking do aplicativo DRL em tarefas de processamento de linguagem natural. O kit de ferramentas fornece ambientes interativos para tarefas padrão de PNL, como marcação de sequência, resposta a perguntas e classificação de sequência. |
| Gensim |
| Título | Descrição |
|---|---|
| NLP-Tutorial | Tutorial de processamento de linguagem natural para pesquisadores de aprendizagem profunda |
| Processamento de linguagem natural no tutorial de Python | Comparando comediantes de stand up usando processamento de linguagem natural |
? 100 papéis de NLP obrigatórios
? Sci-Hub (papéis)
? Stanford, cronograma de seminário da PNL
? CS224N: Processamento de linguagem natural com aprendizado profundo
? CIS 700-008 - Ficção interativa e geração de texto
? Harvard NLP
? O transformador ilustrado
Implementou uma rede neural de fluxo de atenção bidirecional como uma linha de base no esquadrão, melhorando a implementação do modelo de Chris Chute, adicionando entradas de caracteres de palavras, conforme descrito no artigo original e melhorando o código de Gauthierdmns.