Aprendizagem profunda para o curso de NLP em Abbyy.
Livro sugerido: métodos de rede neural no processamento de linguagem natural por Yoav Goldberg
Estou gradualmente atualizando e traduzindo os notebooks agora. Fique em contato.
Análise de sentimentos no conjunto de dados de revisão de filmes do IMDB: Uma breve visão geral do aprendizado de máquina clássico para NLP + Breve Introdução Indencentemente em Keras.
Versão russa:
Versão em inglês atualizada:
Conheça a palavra incorporação: um método não supervisionado para capturar algumas relações divertidas entre as palavras.
Frases similaridade com o modelo de incorporação de palavras + tradução para a máquina baseada em palavras sem dados paralelos (com incorporações de palavras em musa).
Versão russa:
Versão em inglês atualizada:
Introdução a Pytorch. Implementação da regressão linear de PET em puro Numpy e Pytorch. Implementações de modelos CBOW, SKIP-Gram, amostragem negativa e Word2Vec estruturado.
Versão russa:
Versão em inglês atualizada:
Introdução às redes convolucionais. Relações entre convoluções e n-gramas. Detector de sobrenome simples em convoluções no nível do caractere + visualizações divertidas.
Versão russa:
Versão em inglês atualizada:
RNNs para classificação de texto. Implementação simples de RNN + teste de memorização. Detector de sobrenome na configuração multilíngue: classificador LSTM no nível do caractere.
Versão russa:
Versão em inglês atualizada:
RNNs para marcação de sequência. Implementações de tagger de parte da fala com base em incorporações de palavras e incorporação de palavras no nível do caractere.
Versão russa:
Modelo de idioma em nível de caractere para Tweets de trolls russos Geração: modelo de janela fixa por meio de convoluções e modelo RNN.
Modelo de linguagem condicional simples: geração de sobrenome, dada a linguagem de origem.
E desafio de classificação de comentários tóxicos - aplicar suas habilidades a um problema do mundo real.
Versão russa:
Modelo de linguagem no nível da palavra para geração de poesia. Exemplos de animais de estimação de aprendizado de transferência e aprendizado de várias tarefas aplicadas a modelos de idiomas.
Versão russa:
SEQ2SEQ para tradução da máquina e legenda da imagem. Codificação de pares de bytes, pesquisa de feixes e outras coisas úteis para tradução para a máquina.
Versão russa:
SEQ2SEQ com atenção para a tradução da máquina e a legenda da imagem.
Versão russa:
Implementação do modelo de transformador para resumo de texto. Discussão das redes de ponteiro-gerador para resumo de texto.
Versão russa:
Sistemas de diálogo orientados a objetivos. Impleção do modelo de várias tarefas: classificador de intenções e tagger de token para gerente de diálogo.
Versão russa:
Sistemas gerais de diálogo de conversa e DSSMs. Implementação do modelo de resposta a perguntas no conjunto de dados do esquadrão e modelo de chat no conjunto de dados OpenSubtitles.
Versão russa:
Modelos pré -criados para várias tarefas: codificador de frase universal para similaridade da sentença, Elmo para marcação de sequência (com um pouco de CRF), Bert para Swag - raciocínio sobre possível continuação.
Versão russa:
Resumo da PNL - Resumo de coisas legais que apareceram e não foram no curso.