In diesem Buch geht davon aus, dass die Leser eine bestimmte Grundlage für maschinelles Lernen und tiefes Lernen haben und Keras oder Tensorflow oder Pytorch verwendet haben, um geschulte einfache Modelle zu bauen.
Der Spitzname ist eine Videoversion von "Eat That Pytorch in 20 Tagen" in Bilibili angemeldet. Feinschmecker sind voll von ihren Herzen, nur für den reinsten lokalen Geschmack. Neue und alte Freunde können gerne kommen und es probieren ?!
https://www.bilibili.com/video/bv1ua411p7oe
Dieses Buch ist ein Pytorch -Einführungsbuch, das für menschliche Benutzer äußerst freundlich ist. Lassen Sie mich nicht denken, dass dies das höchste Streben nach diesem Buch ist.
Dieses Buch wird hauptsächlich zusammengestellt und auf der Grundlage der offiziellen Dokumentation der Funktionsdokumentation erstellt und geschrieben.
Obwohl die offizielle Pytorch -Dokumentation ziemlich präzise und klar ist, hat dieses Buch viele Optimierungen bei der Auswahl der Kapitelstruktur und der Beispiele vorgenommen, was in Bezug auf die Benutzerfreundlichkeit besser ist.
Dieses Buch entwirft den Inhalt gemäß der Schwierigkeit des Inhalts, der Leser -Suchgewohnheiten und der hierarchischen Struktur von Pytorch, Schritt für Schritt und klaren Ebenen, sodass es bequem ist, entsprechende Beispiele gemäß den Funktionen zu finden.
Dieses Buch ist im Beispieldesign so einfach und strukturiert wie möglich, wodurch die Lesbarkeit und Vielseitigkeit der Beispiele verbessert wird. Die meisten Code -Ausschnitte können in der Praxis aus dem Box verwendet werden.
Wenn es ungefähr 5 ist, Pytorch durch das Erlernen von Pytorch -offiziellen Dokumenten zu meistern, sollte die Schwierigkeit, Pytorch durch dieses Buch zu meistern, ungefähr 2 sein.
Nur die folgende Abbildung vergleicht die Unterschiede zwischen dem offiziellen Pytorch -Dokument und dem Buch "Eat the Pytorch in 20 Tagen".
1. Studienplan
Dieses Buch wurde vom Autor mit etwa 3 Monaten seiner Freizeit geschrieben, und die meisten Leser sollten es innerhalb von 20 Tagen vollständig lernen können.
Die Studienzeit, die Sie jeden Tag verbringen, beträgt zwischen 30 Minuten und 2 Stunden.
Natürlich ist dieses Buch auch als Referenz für das Pytorch -Tool -Handbuch sehr geeignet, wenn es als Beispielbibliothek implementiert wird.
Klicken Sie auf den blauen Titel des Lerninhalts, um dieses Kapitel einzugeben.
| Datum | Inhalt lernen | Inhaltsschwierigkeit | Geschätzte Studienzeit | Status aktualisieren |
|---|---|---|---|---|
| 1. Pytorch -Modellierungsprozess | Euen | 0 Stunde | ✅ | |
| Tag1 | 1-1, Beispiel für strukturiertes Datenmodellierungsprozess | ️Illen | 1 Stunde | ✅ |
| Tag2 | 1-2, Bildmodellierungsprozessbeispiel | ️Illen | 2 Stunden | ✅ |
| Tag3 | 1-3, Beispiel für Textdatenmodellierungsprozess | ️️Echen | 2 Stunden | ✅ |
| Tag4 | 1-4, Beispiel für Zeitreihendatenmodellierungsprozess | ️️Echen | 2 Stunden | ✅ |
| 2. Das Kernkonzept von Pytorch | Euen | 0 Stunde | ✅ | |
| Tag5 | 2-1, Tensor-Datenstruktur | ️Illen | 1 Stunde | ✅ |
| Tag6 | 2-2, automatischer Differentialmechanismus | ️Illen | 1 Stunde | ✅ |
| Tag7 | 2-3, dynamisches Berechnungsdiagramm | ️️Echen | 2 Stunden | ✅ |
| 3. Pytorch Hierarchie | Euen | 0 Stunde | ✅ | |
| Tag8 | 3-1 API-Demonstration mit niedriger Ordnung | ️Illen | 1 Stunde | ✅ |
| Tag9 | 3-2, mittlere API-Demonstration | ️Illen | 1 Stunde | ✅ |
| Tag10 | 3-3, fortschrittliche API-Demonstration | ️Illen | 1 Stunde | ✅ |
| 4. Pytorchs API niedriger Ordnung | Euen | 0 Stunde | ✅ | |
| Tag 11 | 4-1, Strukturbetrieb von Tensoren | ️️Echen | 2 Stunden | ✅ |
| Tag12 | 4-2, mathematischer Betrieb von Tensoren | ️Illen | 1 Stunde | ✅ |
| Tag13 | 4-3, nn.funktional und nn.module | ️Illen | 1 Stunde | ✅ |
| 5. Pytorchs Zwischenapi | Euen | 0 Stunde | ✅ | |
| Tag 14 | 5-1, Datensatz und Dataloader | ️Illen | 1 Stunde | ✅ |
| Tag 15 | 5-2, Modellschicht | ️️Echen | 2 Stunden | ✅ |
| Tag 16 | 5-3, Verlustfunktion | ️Illen | 1 Stunde | ✅ |
| Tag17 | 5-4, Tensorboard-Visualisierung | ️Illen | 1 Stunde | ✅ |
| 6. Pytorchs fortgeschrittene API | Euen | 0 Stunde | ✅ | |
| Tag18 | 6-1, 3 Möglichkeiten zum Erstellen eines Modells | ️Illen | 0,5 Stunde | ✅ |
| Tag19 | 6-2, 3 Möglichkeiten, das Modell zu trainieren | ️Illen | 1 Stunde | ✅ |
| Tag20 | 6-3, verwenden Sie die GPU, um das Modell zu trainieren | ️Illen | 1 Stunde | ✅ |
| * | PostScript: meine Produktansicht | Euen | 0 Stunde | ✅ |
2. Lernumgebung
Alle Quellcodes dieses Buches sind in Jupyter geschrieben und haben den Test bestanden. Es wird empfohlen, es lokal durch Git zu klonen und das Lernen interaktiv in Jupyter zu führen.
STEP1: Klonen Sie den Quellcode dieses Buches in die Region und verwenden Sie das Code Cloud Mirror Warehouse, um in China schneller herunterzuladen
git clone https://gitee.com/Python_Ai_Road/eat_pytorch_in_20_days
SCHRITT2: Offizieller Konto Algorithmus Food House Antwort Schlüsselwörter: PyTorch , erhalten Sie das in diesem Projekt EAT_PYTORCH_DATASETS verwendete Datensatzzusammenfassungspaket.zip Baidu Cloud -Festplatten -Download -Link, Download und Dekompress und wechseln Sie zu Eat_Pytorch_in_20_Days Path, über 160 m.
import torch
from torch import nn
print ( "torch version:" , torch . __version__ )
a = torch . tensor ([[ 2 , 1 ]])
b = torch . tensor ([[ - 1 , 2 ]])
c = a @ b . t ()
print ( "[[2,1]]@[[-1],[2]] =" , c . item ()) torch version: 2.0.1
[[2,1]]@[[-1],[2]] = 0
Geeignet für Studenten, die an Werbeempfehlungsfeldern interessiert sind und fortgeschritten sind?
| Datum | Inhalt lernen | Inhaltsschwierigkeit | Geschätzte Studienzeit | Status aktualisieren |
|---|---|---|---|---|
| 7. Pytorch- und Werbeempfehlungen | Euen | 0 Stunde | ✅ | |
| Tag1 | 7-1, empfohlenes Algorithmusgeschäft | ️Illen | 0,5 Stunde | ✅ |
| Tag2 | 7-2, Werbealgorithmusgeschäft | ️Illen | 0,5 Stunde | ✅ |
| Tag3 | 7-3, FM-Modell | ️Illen | 1 Stunde | ✅ |
| Tag4 | 7-4, DeepFM-Modell | ️Illen | 1 Stunde | ✅ |
| Tag5 | 7-5, Fibinet-Modell | ️Illen | 2 Stunden | ✅ |
| Tag6 | 7-6, Deepcross-Modell | ️️Echen | 2 Stunden | ✅ |
| Tag7 | 7-7, Din-Netzwerk | ️️Echen | 2 Stunden | ✅ |
| Tag8 | 7-8, Dien Network | ️️Echen | 2 Stunden | ✅ |
Einführung in einige periphere Tools im Zusammenhang mit Pytorch
| Datum | Inhalt lernen | Inhaltsschwierigkeit | Geschätzte Studienzeit | Status aktualisieren |
|---|---|---|---|---|
| Osterei: Pytorch Peripheral -Werkzeuge | Euen | 0 Stunde | ✅ | |
| Tag1 | A-1, Kaggle Free GPU-Nutzungshandbuch | ️Illen | 1 Stunde | ✅ |
| Tag2 | A-2, Stromlit baut maschinelle Lernanwendungen auf | ️Illen | 1 Stunde | ✅ |
| Tag3 | A-3, verwenden Sie Mac M1-Chip, um Pytorch zu beschleunigen | ️Illen | 1 Stunde | ✅ |
| Tag4 | A-4, Optuna Visual Parameter-Einstellung Magic Guide | ️Illen | 1 Stunde | ✅ |
| Tag5 | A-5, Gradio macht Ihr maschinelles Lernmodell sexy | ️Illen | 1 Stunde | ✅ |
| Tag6 | A-6, Visuelle Analyse des Wandb-Modells | ️Illen | 0,5 Stunde | ✅ |
| Tag7 | A-7, WANDB-Modellvisualisierung und automatische Parameteranpassung | ️Illen | 1 Stunde | ✅ |
Der relevante Kapitelcode wurde entsprechend optimiert und angepasst.
| Funktion | Stabile Unterstützung für die Startversion | Abhängig von der Bibliothek oder ausleihen |
|---|---|---|
| ✅ Trainingsfortschrittsbalken | 3.0.0 | Verlassen Sie sich auf TQDM, lernen Sie aus Keras |
| ✅ Trainingsbewertungsindikatoren | 3.0.0 | Zeichnen Sie auf Pytorch_lightning |
| ✅ Das Training im Notizbuch wird mit der Visualisierung verbunden | 3.8.0 | Zeichnen Sie von Fastai |
| ✅ frühes Stoppen | 3.0.0 | Auf Keras ziehen |
| ✅ GPU -Training | 3.0.0 | Abhängig von Acceleraterat |
| ✅ Multi-GPUs-Training (DDP) | 3.6.0 | Abhängig von Acceleraterat |
| ✅ FP16/BF16 -Training | 3.6.0 | Abhängig von Acceleraterat |
| ✅ Tensorboard -Rückruf | 3.7.0 | Abhängig von Tensorboard |
| ✅ Wandb -Rückruf | 3.7.0 | Abhängig von Wandb |
Weitere Informationen finden Sie im Projekt Link :: https://github.com/lyhue1991/torchkeras
Wenn dieses Buch für Sie hilfreich ist, möchte ich den Autor ermutigen, denken Sie daran, diesem Projekt einen Stern hinzuzufügen und es mit Ihren Freunden zu teilen?!
Wenn Sie einige Fragen oder Vorschläge zum Inhalt dieses Buches haben, können Sie auf die Schlüsselwörter im Backend des offiziellen Kontos "Algorithmus Food House" antworten: Treten Sie der Gruppe bei und treten Sie der Leser -Exchange -Gruppe bei, um mit allen zu diskutieren.