
Update: Weitere Informationen finden Sie im Orignal Repo für den vollständigen Pytorch -Port. Wir pflegen dieses Repo nicht mehr.
Dieses Projekt ist aus dem ursprünglichen Tauchgang in Deep Learning Book von Aston Zhang, Zachary C. Lipton, Mu Li, Alex J. Smola und allen Mitwirkenden der Community angepasst. GitHub des Originalbuchs: https://github.com/d2l-ai/d2l-en. Wir haben uns bemüht, das Buch zu ändern und die MXNET -Code -Snippets in Pytorch umzuwandeln.
Hinweis: Einige IPYNB -Notizbücher werden möglicherweise nicht perfekt in GitHub gerendert. Wir empfehlen, das Repo cloning oder NBViewer zu verwenden, um die Notizbücher anzuzeigen.
Kapitel
CH02 Installation
CH03 Einführung
CH04 Die Vorbereitungen: Ein Crashcours
- 4.1 Datenmanipulation
- 4.2 Lineare Algebra
- 4.3 Automatische Differenzierung
- 4.4 Wahrscheinlichkeit und Statistik
- 4.5 Naive Bayes -Klassifizierung
- 4.6 Dokumentation
CH05 Lineare neuronale Netze
- 5.1 Lineare Regression
- 5.2 Lineare Regressionsimplession von Grund auf neu
- 5.3 Übersichtliche Implementierung der linearen Regression
- 5.4 Softmax -Regression
- 5.5 Datenklassifizierungsdaten (Fashion-Mnist)
- 5.6 Implementierung der Softmax -Regression von Grund auf neu
- 5.7 Übersichtliche Implementierung der Softmax -Regression
CH06 Multilayer Perceptrons
- 6.1 Multilayer Perceptron
- 6.2 Implementierung von Multilayer -Perzeptron von Grund auf neu
- 6.3 Übersichtliche Implementierung von Multilayer Perceptron
- 6.4 Modellauswahl unterbezogen und überpassend
- 6.5 Gewichtsverfall
- 6.6 Dropout
- 6.7 Vorwärtsverbreitung rückwärts und Rechendiagramme
- 6.8 Numerische Stabilität und Initialisierung
- 6.9 Berücksichtigung der Umgebung
- 6.10 Vorhersage von Immobilienpreisen auf Kaggle
CH07 Deep Learning Berechnung
- 7.1 Schichten und Blöcke
- 7.2 Parametermanagement
- 7.3 Aufschobene Initialisierung
- 7.4 Benutzerdefinierte Schichten
- 7.5 Datei i/o
- 7.6 GPUs
CH08 Faltungsnetze
- 8.1 von dichten Schichten bis zu Wällen
- 8.2 Konvolutionen für Bilder
- 8.3 Polsterung und Schritt
- 8.4 Mehrere Eingangs- und Ausgangskanäle
- 8.5 Pooling
- 8.6 Faltungsnetzwerke (Lenet)
CH09 Moderne Faltungsnetzwerke
- 9.1 Deep Figolutional Neural Networks (Alexnet)
- 9.2 Netzwerke mit Blöcken (VGG)
- 9.3 Netzwerk im Netzwerk (NIN)
- 9.4 Netzwerke mit parallelen Verkettungen (Googlenet)
- 9.5 Batch -Normalisierung
- 9.6 Restnetzwerke (Resnet)
- 9.7 dicht verbundene Netzwerke (Densenet)
CH10 wiederkehrende neuronale Netze
- 10.1 Sequenzmodelle
- 10.2 Sprachmodelle
- 10.3 wiederkehrende neuronale Netze
- 10.4 Textvorverarbeitung
- 10.5 Implementierung wiederkehrender neuronaler Netze von Grund auf neu
- 10.6 Übereinstimmende Implementierung wiederkehrender neuronaler Netze
- 10.7 Backpropagation durch die Zeit
- 10.8 wiederholte wiederkehrende Einheiten (Gru)
- 10.9 Kurzzeitspeicher (LSTM)
- 10.10 tiefe wiederkehrende neuronale Netze
- 10.11 Bidirektionale wiederkehrende neuronale Netze
- 10.12 maschinelle Übersetzung und Datensätze
- 10.13 Encoder-Decoder-Architektur
- 10.14 Sequenz zur Sequenz
- 10.15 Strahlsuche
CH11 Aufmerksamkeitsmechanismus
- 11.1 Aufmerksamkeitsmechanismus
- 11.2 Sequenz zur Sequenz mit Aufmerksamkeitsmechanismus
- 11.3 Transformator
CH12 -Optimierungsalgorithmen
- 12.1 Optimierung und tiefes Lernen
- 12.2 Konvexität
- 12.3 Gradientenabstieg
- 12.4 Stochastische Gradientenabstieg
- 12,5 stochastischer Gradientenabstieg aus Mini-Batch
- 12.6 Impuls
- 12.7 Adagrad
- 12.8 RMSProp
- 12.9 Adadelta
- 12.10 Adam
CH14 Computer Vision
- 14.1 Bildvergrößerung
- 14.2 Feinabstimmung
- 14.3 Objekterkennung und Begrenzungsboxen
- 14.4 Ankerboxen
- 14.5 Multiskale -Objekterkennung
- 14.6 Datensatz für Objekterkennungsmittel (Pikachu)
- 14.7 Single -Shot -Multibox -Detektion (SSD)
- 14,8 Region basierende CNNs (R-CNNs)
- 14.9 Semantische Segmentierung und Datensätze
- 14.10 transponierte Faltung
- 14.11 Vollverkäufliche Netzwerke (FCN)
- 14.12 Transfer
- 14.13 Bildklassifizierung (CIFAR-10) auf Kaggle
- 14.14 Hunderassenidentifikation (ImageNet Dogs) auf Kaggle
Beitragen
Bitte öffnen Sie eine Pull -Anfrage, um ein Notizbuch in Pytorch für den Rest der Kapitel beizutragen. Eröffnen Sie vor Beginn des Notizbuchs ein Problem mit dem Namen des Notizbuchs, um dazu beitragen zu können. Wir werden Ihnen dieses Problem zuweisen (wenn früher niemand zugewiesen wurde).
Befolgen Sie die Namenskonventionen für die Ipython -Notizbücher und die Unterabschnitte streng.
Wenn Sie der Meinung sind, dass es einen Abschnitt gibt, der mehr/bessere Erläuterungen erfordert, verwenden Sie den Ausgabe -Tracker, um ein Problem zu eröffnen und uns darüber zu informieren. Wir werden so schnell wie möglich zurückkommen.
Finden Sie einen Code, der verbessert werden muss, und senden Sie eine Pull -Anfrage.
Suchen Sie eine Referenz, die wir verpasst haben, und senden Sie eine Pull -Anfrage.
Versuchen Sie, keine großen Pull -Anfragen einzureichen, da sie schwierig zu verstehen und einzubeziehen. Senden Sie besser mehrere kleinere.
Unterstützung
Wenn Sie dieses Repo mögen und es nützlich finden, sollten Sie (★) die Hauptrolle in Betracht ziehen, damit es ein breiteres Publikum erreichen kann.
Referenzen
[1] Originalbuch eintauchen in Deep Learning -> Github Repo
[2] Deep Learning - der gerade Dope
[3] Pytorch - Mxnet -Cheatsblatt
Zitieren
Wenn Sie diese Arbeit oder diesen Code für Ihre Forschung verwenden, zitieren Sie bitte das Originalbuch mit dem folgenden Bibtex -Eintrag.
@book{zhang2020dive,
title={Dive into Deep Learning},
author={Aston Zhang and Zachary C. Lipton and Mu Li and Alexander J. Smola},
note={url{https://d2l.ai}},
year={2020}
}