Aprendizaje profundo para el curso accidental de la PNL en Abbyy.
Libro de texto sugerido: Métodos de redes neuronales en procesamiento del lenguaje natural por Yoav Goldberg
Estoy actualizando y traduciendo gradualmente los cuadernos en este momento. Mantente en contacto.
Análisis de sentimientos en el conjunto de datos de revisión de películas IMDB: una breve descripción general del aprendizaje automático clásico para NLP + indecentemente breve introducción a Keras.
Versión rusa:
Versión en inglés actualizada:
Conozca la palabra incrustaciones: un método no supervisado para capturar algunas relaciones divertidas entre las palabras.
Frases similitud con el modelo de incrustaciones de palabras + traducción automática basada en palabras sin datos paralelos (con incrustaciones de palabras de Muse).
Versión rusa:
Versión en inglés actualizada:
Introducción a Pytorch. Implementación de la regresión lineal de PET en Pure Numpy y Pytorch. Implementaciones de CBOW, Skip-Gram, muestreo negativo y modelos estructurados de Word2VEC.
Versión rusa:
Versión en inglés actualizada:
Introducción a las redes convolucionales. Relaciones entre convoluciones y N-Grams. Detector de apellido simple en convoluciones a nivel de carácter + visualizaciones divertidas.
Versión rusa:
Versión en inglés actualizada:
RNNS para la clasificación de texto. Implementación simple de RNN + prueba de memorización. Detector de apellido en la configuración multilingüe: clasificador LSTM a nivel de personaje.
Versión rusa:
Versión en inglés actualizada:
RNNS para el etiquetado de secuencia. Implementaciones de etiquetas de parte del discurso basadas en incrustaciones de palabras e incrustaciones de palabras a nivel de personaje.
Versión rusa:
Modelo de idioma a nivel de carácter para la generación de tweets de troll rusos: modelo de ventana fija a través de convoluciones y modelo RNN.
Modelo de lenguaje condicional simple: Generación de apellido Dado lenguaje de origen.
Y desafío de clasificación de comentarios tóxicos: aplicar sus habilidades a un problema del mundo real.
Versión rusa:
Modelo de lenguaje a nivel de palabras para generación de poesía. Ejemplos de aprendizaje de transferencia y aprendizaje de varias tareas aplicados a modelos de idiomas.
Versión rusa:
SEQ2SEQ para traducción automática y subtítulos. Codificación de pares de bytes, búsqueda de haz y otras cosas útiles para la traducción automática.
Versión rusa:
SEQ2SEQ con atención para la traducción automática y el subtítulos de imágenes.
Versión rusa:
Implementación del modelo de transformador para resumen de texto. Discusión de las redes de Generador de puntero para resumen de texto.
Versión rusa:
Sistemas de diálogo orientados a objetivos. Implementación del modelo de varias tareas: clasificador de intención y etiqueta token para el administrador de diálogo.
Versión rusa:
Sistemas de diálogo de conversación general y DSSM. Implementación del modelo de respuesta de preguntas en el conjunto de datos de escuadrón y modelo de chit-chat en el conjunto de datos OpenSubtitles.
Versión rusa:
Modelos previos a las tareas: codificador de oraciones universales para similitud de oraciones, ELMO para etiquetado de secuencia (con un poco de CRF), Bert para Swag - razonamiento sobre la posible continuación.
Versión rusa:
Resumen de la PNL - Resumen de cosas geniales que aparecieron y no en el curso.