Wichtig
Online -Leseadresse | Unterstützende Video -Tutorials | Zhihai (National AI Science and Education Platform)
Bitte beachten Sie: Online -Dokument -Updates bleiben hinter den Hauptdaten -Repository -Updates zurück. Es wird empfohlen, die Markdown -Datei im Quellordner zu betrachten.
Pytorch ist ein wichtiges Instrument für die Datenwissenschaftsforschung mit Deep Learning. Es hat erhebliche Vorteile von Flexibilität, Lesbarkeit und Leistung. In den letzten Jahren wurde es zum am häufigsten verwendeten Rahmen für die Implementierung von tiefen Lernalgorithmen in der akademischen Gemeinschaft.
In Anbetracht der Tatsache, dass Pytorchs Lernen sowohl theoretische Reserven als auch praktische Schulungen hat und beide Hände stark sein müssen, haben wir den Kurs "leicht verständlich zu verstehen" entwickelt, in der Hoffnung, jedem zu helfen, Pytorch-Tools in Form des Teamlernens zu beherrschen und dann seine eigenen Tiefenlernalgorithmen zu implementieren.
Unsere Vision ist: Durch das Lernen von Teams kann jeder das Grundwissen und den Inhalt von Pytorch von flach bis tiefer beherrschen und seine Kenntnisse durch ihre eigene praktische Praxis vertiefen. Gleichzeitig können wir durch den tatsächlichen Projektbetrieb unsere Programmierkenntnisse vollständig schulen, den grundlegenden Prozess von Pytorch im Deep -Lernen beherrschen und unsere Fähigkeit verbessern, praktische Probleme zu lösen.
Die Voraussetzung für das Lernen besteht darin, die Python-Programmierung zu verwenden, Algorithmen für maschinelles Lernen einschließlich neuronaler Netzwerke zu verstehen und in der praktischen Praxis fleißig zu sein.
"Leicht zu verstehen Pytorch" ist eine Serie mit insgesamt drei Teilen. Die erste und zweite Teile dieser Serie sind bereits online. "Eingehende und leicht verständliche Pytorch" (Teil 2) werden in Zukunft aktualisiert, um praktische Fälle zu ermöglichen, die eher mit praktischen Anwendungen übereinstimmen.
| Mitglied | Persönliches Profil | Persönliche Homepage |
|---|---|---|
| Niu Zhikang | Mitglied von Datawhale, Student der Xi'an University of Electronic Science and Technology | [Zhihu] [persönliche Homepage] |
| Li Jiaqi | Mitglied von Datawhale, Doktorand der Tsinghua University | [Zhihu] |
| Liu Yang | Mitglied von Datawhale, Doktorand am Institut für Mathematik- und Systemwissenschaft der chinesischen Akademie der Wissenschaften | [Zhihu] |
| Chen Andong | Mitglied von Datawhale, Doktorand des Harbin Institute of Technology | [Persönliche Homepage] |
Tutorial -Beitragsstatus (Kurse sind bereits online):
Li Jiaqi: Kapitel 3; Kapitel 4; Kapitel 5; Kapitel 6; Kapitel 7; Kapitel 8; Inhaltsintegration
Niu Zhikang: Kapitel 1; Kapitel 3; Kapitel 6; Kapitel 7; Kapitel 8, Kapitel 9, Kapitel 10; Dokumentbereitstellung
Liu Yang: Kapitel 2; Kapitel 3
Chen Andong: Kapitel 2; Kapitel 3; Kapitel 7
Für einige Kapitel Live -Erklärungen finden Sie die Wiedergabe von B Station (kontinuierlich aktualisiert): https://www.bilibili.com/video/bv1l44y1472z
Kursorchestrierung: Eingehende und leicht verständliche Pytorch ist in drei Stufen unterteilt: Grundkenntnisse über Pytorch Deep Learning, fortgeschrittener Betrieb von Pytorch und Fallanalyse von Pytorch.
Wie man verwendet:
Unser Kursinhalt wird in diesem Repository im Markdown -Format oder im Jupyter -Notebook -Format gespeichert. Das Wichtigste ist nicht nur mehr zu lesen, um das Verständnis des Kursinhalts zu vertiefen, sondern auch zu praktizieren, zu üben, zu üben
Team -Lernarrangements:
Teil 1: Kapitel 1 bis Kapitel 4, Studienzyklus: 10 Tage;
Teil 2: Kapitel 5 bis Kapitel 8, Lernzyklus: 11 Tage
Dieses Projekt verwendet den Forking -Workflow. Einzelheiten finden Sie im Atlassian -Dokument, die Schritte sind wie folgt:
upstream -Repository -Adresse ein und deaktivieren Sie pushlecture{#NO} , und #NO bleibt zwei Ziffern, wie z. B. lecture07 , entspricht dem KursverzeichnisBefehlsbeispiel:
# fork
# clone
git clone [email protected]:USERNAME/thorough-pytorch.git
# set upstream
git remote add upstream [email protected]:datawhalechina/thorough-pytorch.git
# disable upstream push
git remote set-url --push upstream DISABLE
# verify
git remote -v
# some sample output:
# origin [email protected]:NoFish-528/thorough-pytorch.git (fetch)
# origin [email protected]:NoFish-528/thorough-pytorch.git (push)
# upstream [email protected]:datawhalechina/thorough-pytorch.git (fetch)
# upstream DISABLE (push)
# do your work
git checkout -b lecture07
# edit and commit and push your changes
git push -u origin lecture07
# keep your fork up to date
# # fetch upstream main and merge with forked main branch
git fetch upstream
git checkout main
git merge upstream/main
# # rebase brach and force push
git checkout lecture07
git rebase main
git push -f Senden Sie Informationen mit dem folgenden Format ein: <type>: <short summary>
<type>: <short summary>
│ │
│ └─⫸ Summary in present tense. Not capitalized. No period at the end.
│
└─⫸ Commit Type: [docs #NO]:others
others umfassen nicht-günstige Änderungen, wie z. B. Änderungen in diesem README.md , Anpassungen an .gitignore usw.
| Inhalt | Zeit aktualisieren | Inhalt |
|---|---|---|
| Apex | Einführung und Verwendung von Apex | |
| Modellbereitstellung | Flask bereitet das Pytorch -Modell bereit | |
| Torchscript | Torchscript | |
| Parallele Training | Parallele Training | |
| Modell vor dem Training - Torchhub | Einführung und Verwendung von Torchhub | |
| Zielerkennung - SSD | Einführung und Implementierung von SSD | |
| Objekterkennung - RCNN -Serie | FAST-RCNN & MASK-RCNN | |
| Zielerkennung - detr | Implementierung von detr | |
| Bildklassifizierung - Googlelenet | Einführung und Implementierung von Googlelenet | |
| Bildklassifizierung - Mobilenet -Serie | Einführung und Implementierung der Mobilenet -Serie | |
| Bildklassifizierung - Ghostnet | Ghostnet -Code Erläuterung | |
| Generatives kontroverses Netzwerk - Generative handgeschriebene digitale Praxis | Generieren Sie Zahlen und visualisieren Sie sie | |
| Generatives kontroverses Netzwerk - DCGAN | ||
| Stiltransfer - Stylegan | ||
| Netzwerk generieren - VAE | ||
| Bildsegmentierung Deeptlab -Serie | Deeptlab Series Code Erklärung | |
| Verarbeitung natürlicher Sprache LSTM | LSTM emotionale Analysepraxis | |
| Transformator für natürliche Sprachverarbeitung | ||
| Verarbeitungsverarbeitungsabwicklung Bert | ||
| Video | Bestimmt werden | |
| Audio | Bestimmt werden | |
| Benutzerdefinierte Cuda -Erweiterungen und -Onträglichkeiten |
Mit Beitragsröcken gemacht.
Diese Arbeit ist im Rahmen der Kreative Commons Attribution-Non-Commercial-Share 4.0 International Lizenz lizenziert.