Este repositorio contiene tutoriales que cubren la comprensión e implementación de modelos de clasificación de secuencia utilizando Pytorch, con Python 3.9. Específicamente, entrenaremos modelos para predecir el sentimiento de las reseñas de películas.
Si encuentra algún error o no está de acuerdo con cualquiera de las explicaciones, no dude en enviar un problema. ¡Agradezco cualquier comentario, positivo o negativo!
Instale las dependencias requeridas con: pip install -r requirements.txt --upgrade .
1 - bolsa neuronal de palabras
Este tutorial cubre el flujo de trabajo de un proyecto de clasificación de secuencia con Pytorch. Cubriremos los conceptos básicos de la clasificación de secuencia utilizando un modelo de bolsa de palabras neuronal simple, pero efectivo,, y cómo usar los conjuntos de datos/Libias de TeTtext para simplificar la carga/preprocesamiento de datos.
2 - Redes neuronales recurrentes
Ahora tenemos el flujo de trabajo de clasificación de secuencia básica cubierta, este tutorial se centrará en mejorar nuestros resultados cambiando a un modelo de red neuronal recurrente (RNN). Cubriremos la teoría detrás de RNN y analizaremos una implementación de la RNN de memoria a largo plazo a largo plazo (LSTM), una de las variantes más comunes de RNN.
3 - Redes neuronales convolucionales
A continuación, cubriremos las redes neuronales convolucionales (CNN) para el análisis de sentimientos. Este modelo será una implementación de redes neuronales convolucionales para la clasificación de oraciones.
4 - Transformadores
Finalmente, mostraremos cómo usar la biblioteca Transformers para cargar un modelo de transformador previamente capacitado, específicamente el modelo BERT de este documento, y lo usaremos para la clasificación de secuencias.
Las versiones anteriores de estos tutoriales utilizaron características de la biblioteca TorchText que ya no están disponibles. Estos se almacenan en el directorio heredado.
Aquí hay algunas cosas que miré al hacer estos tutoriales. Algunos de ellos pueden estar desactualizados.