
MISE À JOUR: Veuillez consulter le dépôt Orignal pour le port Pytorch complet. Nous ne maintenons plus ce repo.
Ce projet est adapté de la plongée originale dans le livre d'apprentissage en profondeur d'Aston Zhang, Zachary C. Lipton, Mu Li, Alex J. Smola et tous les contributeurs communautaires. Github du livre original: https://github.com/d2l-ai/d2l-en. Nous avons fait un effort pour modifier le livre et convertir les extraits de code MXNET en pytorch.
Remarque: certains cahiers IPYNB peuvent ne pas être parfaitement rendus dans GitHub. Nous suggérons cloning le dépôt ou d'utiliser NBViewer pour afficher les cahiers.
Chapitres
Installation CH02
CH03 Introduction
CH04 LES PRÉLIMINAIRES: A Crashcourse
- 4.1 Manipulation des données
- 4.2 Algèbre linéaire
- 4.3 Différenciation automatique
- 4.4 Probabilité et statistiques
- 4.5 Classification naïve de Bayes
- 4.6 Documentation
Réseaux de neurones linéaires CH05
- 5.1 Régression linéaire
- 5.2 Implémentation de régression linéaire à partir de zéro
- 5.3 Implémentation concise de la régression linéaire
- 5.4 Régression Softmax
- 5.5 Données de classification d'images (mode-MNIST)
- 5.6 Implémentation de la régression Softmax à partir de zéro
- 5.7 Implémentation concise de la régression Softmax
Perceptrons multicouches CH06
- 6.1 Perceptron multicouche
- 6.2 Implémentation du perceptron multicouche à partir de zéro
- 6.3 Implémentation concise du perceptron multicouche
- 6.4 Sous-sous-ajustement et sur-ajustement du modèle
- 6.5 Dérange de poids
- 6.6 Dropout
- 6.7 Propagation vers l'avant Propagation vers l'arrière et les graphiques de calcul
- 6.8 Stabilité et initialisation numériques
- 6.9 Compte tenu de l'environnement
- 6.10 Prédire les prix des maisons sur Kaggle
CULTATATION DE LA PROCACTION DE DEMER CH07
- 7.1 couches et blocs
- 7.2 Gestion des paramètres
- 7.3 Initialisation différée
- 7.4 Couches personnalisées
- 7.5 Fichier E / S
- 7.6 GPUS
CH08 Réseaux de neurones convolutionnels
- 8.1 des couches denses aux convolutions
- 8.2 Convolutions pour les images
- 8.3 rembourrage et foulée
- 8.4 Channeaux d'entrée et de sortie multiples
- 8,5 pool
- 8.6 Réseaux de neurones convolutionnels (LENET)
CH09 Réseaux de convolution moderne
- 9.1 Réseaux de neurones convolutionnels profonds (Alexnet)
- 9.2 Réseaux à l'aide de blocs (VGG)
- 9.3 Réseau dans le réseau (NIN)
- 9.4 Réseaux avec des concaténations parallèles (Googlenet)
- 9.5 Normalisation par lots
- 9.6 Réseaux résiduels (Resnet)
- 9.7 Réseaux densément connectés (densenet)
Réseaux de neurones récurrents CH10
- 10.1 Modèles de séquence
- 10.2 Modèles de langue
- 10.3 Réseaux de neurones récurrents
- 10.4 Prétraitement du texte
- 10.5 Implémentation de réseaux de neurones récurrents à partir de zéro
- 10.6 Mise en œuvre concise des réseaux de neurones récurrents
- 10.7 rétropropagation dans le temps
- 10.8 Unités récurrentes fermées (GRU)
- 10.9 Mémoire à court terme (LSTM)
- 10.10 Réseaux de neurones récurrents profonds
- 10.11 Réseaux de neurones récurrents bidirectionnels
- 10.12 Traduction machine et ensembles de données
- 10.13 Architecture d'encodeur
- 10.14 Séquence à la séquence
- 10.15 Recherche de faisceau
Mécanisme d'attention CH11
- 11.1 Mécanisme d'attention
- 11.2 Séquence à la séquence avec mécanisme d'attention
- 11.3 Transformateur
Algorithmes d'optimisation CH12
- 12.1 Optimisation et apprentissage en profondeur
- 12.2 Convexité
- 12.3 Descente de gradient
- 12.4 Descente de gradient stochastique
- 12,5 Mini-lots Stochastic Gradient Descent
- 12,6 Momentum
- 12.7 Adagrad
- 12.8 RMSPROP
- 12.9 Adadelta
- 12.10 Adam
Vision informatique CH14
- 14.1 Augmentation de l'image
- 14.2 réglage fin
- 14.3 Détection d'objets et boîtes de délimitation
- 14.4 Boîtes d'ancrage
- 14.5 Détection d'objets à plusieurs échelles
- 14.6 Ensemble de données de détection d'objets (Pikachu)
- 14.7 Détection multibox à un seul tir (SSD)
- 14.8 CNNS basé sur la région (R-CNNS)
- 14.9 Segmentation sémantique et ensembles de données
- 14.10 Convolution transposée
- 14.11 Réseaux entièrement convolutionnels (FCN)
- 14.12 Transfert de style neuronal
- 14.13 Classification d'image (CIFAR-10) sur Kaggle
- 14.14 Identification de la race de chien (Imagenet Dogs) sur Kaggle
Contributif
N'hésitez pas à ouvrir une demande de traction pour contribuer un cahier à Pytorch pour le reste des chapitres. Avant de commencer avec le cahier, ouvrez un problème avec le nom du cahier afin de contribuer à la même chose. Nous vous attribuerons ce problème (si personne n'a été affecté plus tôt).
Suivez strictement les conventions de dénomination des cahiers IPython et des sous-sections.
De plus, si vous pensez qu'il y a une section qui nécessite plus / une meilleure explication, veuillez utiliser le tracker du problème pour ouvrir un problème et nous en informer. Nous reviendrons dès que possible.
Trouvez un code qui doit être amélioré et soumettez une demande de traction.
Trouvez une référence que nous avons manquée et soumettez une demande de traction.
Essayez de ne pas soumettre d'énormes demandes de traction car cela les rend difficiles à comprendre et à intégrer. Mieux vaut en envoyer plusieurs plus petits.
Soutien
Si vous aimez ce dépôt et que vous le trouvez utile, veuillez considérer (★) en le avec, afin qu'il puisse atteindre un public plus large.
Références
[1] Book original plongeant dans Deep Learning -> Github Repo
[2] Deep Learning - The Straight Dope
[3] Pytorch - Mxnet Cheatheet
Citer
Si vous utilisez ce travail ou ce code pour vos recherches, veuillez citer le livre original avec l'entrée Bibtex suivante.
@book{zhang2020dive,
title={Dive into Deep Learning},
author={Aston Zhang and Zachary C. Lipton and Mu Li and Alexander J. Smola},
note={url{https://d2l.ai}},
year={2020}
}