Dieses Projekt ändert die Implementierung von MXNET-Code im Originalbuch "Hand-on Deep Learning" in TensorFlow2. Nachdem Archersamas Tutor mit Lehrer Li Mu beraten wurde, wurde die Umsetzung dieses Projekts von Lehrer Li Mu genehmigt. Originalbuchautoren: Aston Zhang, Li Mu, Zachary C. Lipton, Alexander J. Smora und andere Community-Mitwirkende, Github Adresse: https://github.com/d2l-ai/d2l-zh
Es gibt einige Unterschiede in den chinesischen und englischen Versionen dieses Buches. Dieses Projekt TensorFlow2 für die chinesische Version dieses Buches hauptsächlich Refactors. Darüber hinaus bezieht sich dieses Projekt auch auf das Projekt Dive-Into-DL-Pytorch, das die Refaktoren Pytorch in der chinesischen Version dieses Buches, danke hier.
Es wurde auf zehn Kapitel aktualisiert und wird kontinuierlich aktualisiert. . .
Das Projekt wurde von vielen öffentlichen Konten wie Machine Heart gemeldet und vom ursprünglichen Autor Li Mu anerkannt.
Einführung
Dieses Repository enthält hauptsächlich zwei Ordner: Code und Dokumente (plus einige Daten werden in Daten gespeichert). Der Codeordner ist der relevante Jupyter -Notebook -Code für jedes Kapitel (basierend auf TensorFlow2). Der DOCS-Ordner ist der relevante Inhalt im Markdown-Format von "Hand-on Deep Learning" -Buch und verwenden docSify, um das Web-Dokument auf GitHub-Seiten bereitzustellen. Da das Originalbuch das MXNET -Framework verwendet, unterscheiden sich der DOCS -Inhalt möglicherweise geringfügig vom Originalbuch, aber der Gesamtinhalt ist der gleiche. Beiträge zu diesem Projekt oder zu diesem Thema sind willkommen.
Für Menschenmassen
Dieses Projekt richtet sich an Kinderschuhe, die an Deep Learning interessiert sind, insbesondere für diejenigen, die TensorFlow2 für Deep Learning verwenden möchten. In diesem Projekt müssen Sie keine Hintergrundkenntnisse über tiefes Lernen oder maschinelles Lernen haben. Sie müssen nur grundlegende Mathematik und Programmierung verstehen, wie z. B. grundlegende lineare Algebra, Differential und Wahrscheinlichkeit sowie grundlegende Python -Programmierung.
Wie man isst
Methode 1
Dieses Repository enthält einige Latex -Formeln, aber der Markdown -Native von Github unterstützt keine Formelanzeige, und der DOCS -Ordner wurde auf Github -Seiten unter Verwendung von DocSify bereitgestellt. Der einfachste Weg, das Dokument anzuzeigen, besteht darin, direkt auf die Webversion dieses Projekts zuzugreifen . Wenn Sie den entsprechenden Code noch ausführen möchten, müssen Sie das Projekt noch klonen und dann den entsprechenden Code im Codeordner ausführen.
Methode 2
Sie können auch lokal auf die Dokumentation zugreifen und zuerst docsify-cli -Tool installieren:
Dann klonen Sie das Projekt lokal:
git clone https://github.com/TrickyGo/Dive-into-DL-TensorFlow2.0
cd Dive-into-DL-TensorFlow2.0
Führen Sie dann einen lokalen Server aus, damit Sie in Echtzeit unter http://localhost:3000 problemlos auf den Dokument -Web -Rendering -Effekt zugreifen können.
Mitwirkende
Die Sponsoren und Hauptbeiträge dieses Projekts sind wie folgt
Archersama (Führer) | Trickygo
| Schwertfaith
| Shusentang
| Liangqingyuan
|
Inhaltsverzeichnis
- Einführung
- Lesehandbuch
- 1. Einführung in Deep Learning
- 2. Kenntnisse vorbereiten
- 2.1 Umgebungskonfiguration
- 2.2 Datenbetrieb
- 2.3 Finden Sie automatisch Gradienten
- 2.4 Überprüfen Sie das Dokument
- 3. Grundlagen des tiefen Lernens
- 3.1 Lineare Regression
- 3.2 Implementierung der linearen Regression von Grund auf neu
- 3.3 Eine kurze Implementierung der linearen Regression
- 3.4 Softmax -Regression
- 3.5 Datenklassifizierungsdatensatz (Fashion-Mnist)
- 3.6 Implementierung der Softmax -Regression von Grund auf neu
- 3.7 Eine einfache Implementierung der Softmax -Regression
- 3.8 Multi-Layer-Erfassungsmaschine
- 3.9 Implementierung der Mehrschichtwahrnehmungsmaschine von Grund auf neu
- 3.10 Einfache Implementierung der Mehrschichtwahrnehmungsmaschine
- 3.11 Modellauswahl, Unteranpassung und Überanpassung
- 3.12 Gewichtsverfall
- 3.13 Verwerfen der Methode
- 3.14 Vorwärtsvermehrung, Rückenausbreitung und Berechnungsdiagramme
- 3.15 Numerische Stabilität und Modellinitialisierung
- 3.16 Tatsächlicher Kaggle -Wettbewerb: Hauspreisvorhersage
- 4. Deep Learning Computing
- 4.1 Modellkonstruktion
- 4.2 Zugriff, Initialisierung und Freigabe von Modellparametern
- 4.3 Verzögerung der Initialisierung von Modellparametern
- 4.4 Benutzerdefinierte Ebene
- 4.5 Lesen und Speicher
- 4.6 GPU Computing
- 5. Faltungsnetzwerk mit Faltungsnetzwerk
- 5.1 zweidimensionale Faltungsschicht
- 5.2 Füllen und Schritt
- 5.3 Multi-Input-Kanal und Multi-Output-Kanal
- 5.4 Pooling -Schicht
- 5.5 Faltungsnetzwerk (Lenet)
- 5.6 Tiefes Faltungsnetzwerk (Alexnet)
- 5.7 Netzwerke mit Wiederholungselementen (VGG)
- 5.8 Netzwerk im Netzwerk (NIN)
- 5.9 Netzwerk mit paralleler Verbindung (Googlenet)
- 5.10 Stapelnormalisierung
- 5.11 Restnetzwerk (Resnet)
- 5.12 Densenet
- 6. wiederkehrendes neuronales Netzwerk
- 6.1 Sprachmodell
- 6.2 wiederkehrendes neuronales Netzwerk
- 6.3 Sprachmodell -Datensatz (Texte von Jay Chous Album)
- 6.4 Implementierung wiederkehrender neuronaler Netze von Grund auf neu
- 6.5 Einfache Implementierung des wiederkehrenden neuronalen Netzwerks
- 6.6 Backpropagation durch die Zeit
- 6.7 Gated Circulation Unit (GRU)
- 6,8 Kurzzeitgedächtnis (LSTM)
- 6.9 Tiefes rezidivierendes neuronales Netzwerk
- 6.10 Bidirektional rezidivierendes neuronales Netzwerk
- 7. Optimierungsalgorithmus
- 7.1 Optimierung und tiefes Lernen
- 7.2 Gradientenabstieg und stochastischer Gradientenabstieg
- 7.3 Stochastische Stocher -Stapelabstieg
- 7.4 Momentum -Methode
- 7.5 ADAGRAD -Algorithmus
- 7.6 RMSProp -Algorithmus
- 7.7 Adadelta -Algorithmus
- 7.8 ADAM -Algorithmus
- 8. Rechenleistung
- 8.1 Imperative und Symbol Hybrid -Programmierung
- 8.2 Asynchrone Berechnung
- 8.3 Automatisches parallele Computer
- 8.4 Multi-GPU-Computer
- 9. Computer Vision
- 9.1 Bildvergrößerung
- 9.2 Feinanpassung
- 9.3 Objekterkennung und Begrenzungsbox
- 9.4 Ankerrahmen
- 9.5 Multi-Skala-Zielerkennung
- 9.6 Dataset der Objekterkennung (Pikachu)
- 9.8 Regionale Faltungsreihe Neural Network (R-CNN) Serie
- 9.9 Semantische Segmentierung und Datensätze
- 9.10 Volles Faltungsnetz (FCN)
- 9.11 Migration im Stil
- 9.12 Praktischer Kaggle-Wettbewerb: Bildklassifizierung (CIFAR-10)
- 9.13 Praktischer Kaggle -Wettbewerb: Hunderassenidentifikation (ImageNet Dogs)
- 10. Verarbeitung natürlicher Sprache
- 10.1 Worteinbettung (Word2VEC)
- 10.2 ungefähre Ausbildung
- 10.3 Implementierung von Word2VEC
- 10.4 Subword -Einbettung (FastText)
- 10.5 Worteinbettung globaler Vektoren (Handschuh)
- 10.6 Synonyme und Analogien finden
- 10.7 Klassifizierung von Text Emotion: Verwendung wiederkehrender neuronaler Netzwerke
- 10.8 Text Emotion Klassifizierung: Verwenden von Faltungs -Neuralnetzwerk (TextCNN)
- 10.9 Encoder-Decoder (SEQ2SEQ)
- 10.10 Bündel -Suche
- 10.11 Aufmerksamkeitsmechanismus
- 10.12 maschinelle Übersetzung
- 11. Anhang
- 11.1 Liste der Hauptsymbole
- 11.2 Grundlagen der Mathematik
- 11.3 Verwenden von Jupyter Notebook
- 11.4 Code mit AWS ausführen
- 11.5 GPU -Kaufhandbuch
Kontinuierlich aktualisiert ...
Originalbuchadresse
Chinesische Version: Lernen Sie tiefes Lernen in den Händen | Github -Repository
Englische Version: Tauchen Sie in Deep Learning | Github Repo
Zitat
Wenn Sie dieses Projekt in Ihrer Forschung verwendet haben, zitieren Sie bitte das Originalbuch:
@book{zhang2019dive,
title={Dive into Deep Learning},
author={Aston Zhang and Zachary C. Lipton and Mu Li and Alexander J. Smola},
note={url{http://www.d2l.ai}},
year={2019}
}