
ACTUALIZACIÓN: Consulte el repositorio Orignal para el puerto Pytorch completo. Ya no mantenemos este repositorio.
Este proyecto está adaptado del libro de aprendizaje de inmersión original en Deep Learning de Aston Zhang, Zachary C. Lipton, Mu Li, Alex J. Smola y todos los contribuyentes de la comunidad. GitHub del libro original: https://github.com/d2l-ai/d2l-en. Hemos hecho un esfuerzo para modificar el libro y convertir los fragmentos del código MXNET en Pytorch.
Nota: Algunos cuadernos de IPYNB no se pueden representar perfectamente en GitHub. Sugerimos cloning el repositorio o usar NBViewer para ver los cuadernos.
Capítulos
Instalación CH02
CH03 Introducción
CH04 Los preliminares: un taller
- 4.1 Manipulación de datos
- 4.2 Álgebra lineal
- 4.3 Diferenciación automática
- 4.4 Probabilidad y estadísticas
- 4.5 Naive Bayes Clasificación
- 4.6 Documentación
CH05 Redes neuronales lineales
- 5.1 Regresión lineal
- 5.2 Implementación de regresión lineal desde cero
- 5.3 Implementación concisa de la regresión lineal
- 5.4 Softmax regresión
- 5.5 Datos de clasificación de imágenes (Moda-Mnist)
- 5.6 Implementación de la regresión Softmax desde cero
- 5.7 Implementación concisa de la regresión de Softmax
CH06 Perceptrones multicapa
- 6.1 Perceptrón multicapa
- 6.2 Implementación de Perceptron multicapa desde cero
- 6.3 Implementación concisa de Perceptron multicapa
- 6.4 Selección de modelos Subetting y sobreajuste
- 6.5 Decadencia de peso
- 6.6 Descarga
- 6.7 Propagación hacia adelante Propagación hacia atrás y gráficos computacionales
- 6.8 Estabilidad numérica e inicialización
- 6.9 Teniendo en cuenta el medio ambiente
- 6.10 Predecir los precios de la vivienda en Kaggle
CH07 Cálculo de aprendizaje profundo
- 7.1 capas y bloques
- 7.2 Gestión de parámetros
- 7.3 Inicialización diferida
- 7.4 Capas personalizadas
- 7.5 E/S de archivo
- 7.6 GPU
CH08 Redes neuronales convolucionales
- 8.1 De capas densas a convoluciones
- 8.2 Convoluciones para imágenes
- 8.3 relleno y zancada
- 8.4 Canales de entrada y salida múltiples
- 8.5 Agrupación
- 8.6 Redes neuronales convolucionales (Lenet)
CH09 Redes convolucionales modernas
- 9.1 Redes neuronales convolucionales profundas (Alexnet)
- 9.2 redes usando bloques (VGG)
- 9.3 Red en red (NIN)
- 9.4 Redes con concatenaciones paralelas (Googlenet)
- 9.5 Normalización por lotes
- 9.6 Redes residuales (resnet)
- 9.7 Redes densamente conectadas (Densenet)
CH10 Redes neuronales recurrentes
- 10.1 Modelos de secuencia
- 10.2 modelos de idiomas
- 10.3 Redes neuronales recurrentes
- 10.4 Preprocesamiento de texto
- 10.5 Implementación de redes neuronales recurrentes desde cero
- 10.6 Implementación concisa de redes neuronales recurrentes
- 10.7 Backpropagation a través del tiempo
- 10.8 Unidades recurrentes cerradas (Gru)
- 10.9 Memoria a largo plazo (LSTM)
- 10.10 Redes neuronales recurrentes profundas
- 10.11 Redes neuronales recurrentes bidireccionales
- 10.12 Traducción automática y conjuntos de datos
- 10.13 Arquitectura del codificador del codificador
- 10.14 secuencia a secuencia
- 10.15 Búsqueda de haz
CH11 Mecanismo de atención
- 11.1 Mecanismo de atención
- 11.2 secuencia a secuencia con mecanismo de atención
- 11.3 Transformador
Algoritmos de optimización CH12
- 12.1 Optimización y aprendizaje profundo
- 12.2 Convexidad
- 12.3 Descendencia de gradiente
- 12.4 Descendencia de gradiente estocástico
- 12.5 ascendencia de gradiente estocástico de 12.5 mini lotes
- 12.6 Momento
- 12.7 Adagrad
- 12.8 rmsprop
- 12.9 Adadelta
- 12.10 Adam
Visión por computadora CH14
- 14.1 Aumento de imágenes
- 14.2 Tuning fino
- 14.3 Detección de objetos y cajas delimitadoras
- 14.4 cajas de anclaje
- 14.5 Detección de objetos multiescala
- 14.6 Conjunto de datos de detección de objetos (Pikachu)
- 14.7 Detección multibox de un solo disparo (SSD)
- 14.8 CNN basados en la región (R-CNNS)
- 14.9 Segmentación semántica y conjuntos de datos
- 14.10 Convolución transpuesta
- 14.11 Redes totalmente convolucionales (FCN)
- 14.12 Transferencia de estilo neuronal
- 14.13 Clasificación de imagen (CIFAR-10) en Kaggle
- 14.14 Identificación de raza de perros (Imagenet Dogs) en Kaggle
Que contribuye
No dude en abrir una solicitud de extracción para contribuir con un cuaderno en Pytorch para el resto de los capítulos. Antes de comenzar con el cuaderno, abra un problema con el nombre del cuaderno para contribuir a lo mismo. Te asignaremos ese problema (si nadie ha sido asignado anteriormente).
Siga estrictamente las convenciones de nombres para los cuadernos de Ipython y las subsecciones.
Además, si cree que hay alguna sección que requiere más/mejor explicación, utilice el rastreador de problemas para abrir un problema y háganos saber sobre lo mismo. Volveremos lo antes posible.
Encuentre algún código que necesite mejora y envíe una solicitud de extracción.
Encuentre una referencia que nos perdimos y enviemos una solicitud de extracción.
Trate de no enviar grandes solicitudes de extracción, ya que esto las hace difíciles de entender e incorporar. Mejor enviar varios más pequeños.
Apoyo
Si le gusta este repositorio y lo encuentre útil, considere (★) protagonizarlo, para que pueda llegar a una audiencia más amplia.
Referencias
[1] Libro original Dive In Deep Learning -> Repo de Github
[2] Aprendizaje profundo: la droga directa
[3] Pytorch - MXNET Cheatsheet
Citar
Si usa este trabajo o código para su investigación, cita el libro original con la siguiente entrada de Bibtex.
@book{zhang2020dive,
title={Dive into Deep Learning},
author={Aston Zhang and Zachary C. Lipton and Mu Li and Alexander J. Smola},
note={url{https://d2l.ai}},
year={2020}
}