
ATUALIZAÇÃO: Consulte o repositório ORIGNAL para a porta Pytorch completa. Não mantemos mais esse repositório.
Este projeto é adaptado do livro original de mergulho em Deep Learning de Aston Zhang, Zachary C. Lipton, Mu Li, Alex J. Smola e todos os colaboradores da comunidade. Github do livro original: https://github.com/d2l-ai/d2l-en. Fizemos um esforço para modificar o livro e converter os trechos de código MXNET em Pytorch.
NOTA: Alguns notebooks do iPynb não podem ser renderizados perfeitamente no GitHub. Sugerimos cloning o repositório ou usar o NBViewer para visualizar os notebooks.
Capítulos
CH02 Instalação
CH03 Introdução
CH04 As preliminares: um curso de colisão
- 4.1 Manipulação de dados
- 4.2 Álgebra linear
- 4.3 Diferenciação automática
- 4.4 Probabilidade e estatística
- 4.5 Classificação ingênua de Bayes
- 4.6 Documentação
CH05 Redes neurais lineares
- 5.1 Regressão linear
- 5.2 Implementação de regressão linear do zero
- 5.3 Implementação concisa de regressão linear
- 5.4 Regressão Softmax
- 5.5 Dados de classificação de imagem (MATH-MNIST)
- 5.6 Implementação de regressão softmax do zero
- 5.7 Implementação concisa de regressão softmax
CH06 Perceptrons multicamadas
- 6.1 Perceptron multicamada
- 6.2 Implementação de perceptron multicamada do zero
- 6.3 Implementação concisa de perceptron multicamada
- 6.4 Seleção de modelos Underfitting e Over ajuste
- 6.5 Decaimento do peso
- 6.6 abandono
- 6.7 Propagação encaminhada Propagação para trás e gráficos computacionais
- 6.8 Estabilidade e inicialização numérica
- 6.9 Considerando o ambiente
- 6.10 Prevendo os preços das casas em Kaggle
CH07 Computação de aprendizado profundo
- 7.1 Camadas e blocos
- 7.2 Gerenciamento de parâmetros
- 7.3 Inicialização diferida
- 7.4 Camadas personalizadas
- 7.5 E/S do arquivo
- 7.6 GPUs
CH08 Redes neurais convolucionais
- 8.1 de camadas densas a convoluções
- 8.2 Convóluções para imagens
- 8.3 preenchimento e passo
- 8.4 canais de entrada e saída múltiplos
- 8.5 Pooling
- 8.6 Redes neurais convolucionais (LENET)
CH09 Redes convolucionais modernas
- 9.1 Redes neurais convolucionais profundas (Alexnet)
- 9.2 redes usando blocos (VGG)
- 9.3 Rede na rede (NIN)
- 9.4 redes com concatenações paralelas (Googlenet)
- 9.5 Normalização em lote
- 9.6 Redes residuais (resnet)
- 9.7 redes densamente conectadas (Densenet)
CH10 Redes neurais recorrentes
- 10.1 Modelos de sequência
- 10.2 Modelos de idiomas
- 10.3 Redes neurais recorrentes
- 10.4 pré -processamento de texto
- 10.5 Implementação de redes neurais recorrentes do zero
- 10.6 Implementação concisa de redes neurais recorrentes
- 10.7 Backpropagation ao longo do tempo
- 10.8 unidades recorrentes fechadas (GRU)
- 10.9 Memória de longo prazo de longo prazo (LSTM)
- 10.10 Redes neurais recorrentes profundas
- 10.11 redes neurais recorrentes bidirecionais
- 10.12 Tradução da máquina e conjuntos de dados
- 10.13 Arquitetura do Encoder-Decoder
- 10.14 Sequência à sequência
- 10.15 Pesquisa de feixe
CH11 Mecanismo de atenção
- 11.1 Mecanismo de atenção
- 11.2 Sequência à sequência com mecanismo de atenção
- 11.3 Transformador
Algoritmos de otimização de CH12
- 12.1 Otimização e aprendizado profundo
- 12.2 Convexidade
- 12.3 Descendência de gradiente
- 12.4 Descendência de gradiente estocástico
- 12.5 Descendência de gradiente estocástica de mini-lote
- 12.6 Momento
- 12.7 Adagrad
- 12.8 RMSPROP
- 12.9 Adadelta
- 12.10 Adam
Visão computacional CH14
- 14.1 Aumento da imagem
- 14.2 Ajuste fina
- 14.3 Detecção de objetos e caixas delimitadoras
- 14.4 caixas de ancoragem
- 14.5 Detecção de objetos em várias escalas
- 14.6 Conjunto de dados de detecção de objetos (Pikachu)
- 14.7 Detecção multibox de tiro único (SSD)
- 14.8 CNNs baseados na região (R-CNNs)
- 14.9 Segmentação semântica e conjuntos de dados
- 14.10 Convolução transposta
- 14.11 Redes totalmente convolucionais (FCN)
- 14.12 Transferência de estilo neural
- 14.13 Classificação da imagem (CIFAR-10) em Kaggle
- 14.14 Identificação de raça de cães (cães imagenet) em kaggle
Contribuindo
Sinta -se à vontade para abrir uma solicitação de tração para contribuir com um caderno em Pytorch para o restante dos capítulos. Antes de começar com o caderno, abra um problema com o nome do notebook para contribuir com o mesmo. Atribuiremos esse problema a você (se ninguém tiver sido atribuído anteriormente).
Siga estritamente as convenções de nomenclatura para os notebooks ipython e as subseções.
Além disso, se você acha que existe alguma seção que requer mais/melhor explicação, use o rastreador de problemas para abrir um problema e informe -nos sobre o mesmo. Voltaremos o mais rápido possível.
Encontre algum código que precise de melhoria e envie uma solicitação de tração.
Encontre uma referência que perdemos e envie uma solicitação de tração.
Tente não enviar grandes solicitações de tração, pois isso os torna difíceis de entender e incorporar. Melhor enviar vários menores.
Apoiar
Se você gosta deste repositório e achar útil, considere (★) estrelando -o, para que ele possa atingir um público mais amplo.
Referências
[1] Livro original mergulhe em aprendizado profundo -> repo Github
[2] Aprendizagem profunda - a droga direta
[3] Pytorch - MXNET Cheatsheet
Citar
Se você usar este trabalho ou código para sua pesquisa, cite o livro original com a seguinte entrada do Bibtex.
@book{zhang2020dive,
title={Dive into Deep Learning},
author={Aston Zhang and Zachary C. Lipton and Mu Li and Alexander J. Smola},
note={url{https://d2l.ai}},
year={2020}
}