Dies ist eine Reihe umfassender Tutorials, die ich für die Implementierung von Cool Deep Learning-Modellen selbst mit der erstaunlichen Pytorch-Bibliothek selbst schreibe.
Grundkenntnisse über Pytorch und neuronale Netze werden angenommen.
Wenn Sie neu in Pytorch sind, lesen Sie zuerst Deep Learning mit Pytorch: A 60 -minütiges Blitz und Lernen von Pytorch mit Beispielen.
24. April 2023 : Ich habe gerade die Tutorials für Superauflösungs- und Transformers abgeschlossen.
09. Dezember 2023 : Interessiert an Schach oder Transformatoren? Schauen Sie sich Schachtransformatoren an.
In jedem Tutorial konzentrieren wir uns auf eine bestimmte Anwendung oder einen bestimmten Bereich von Interesse, indem wir ein Modell aus einem Forschungspapier implementieren.
| Anwendung | Papier | Tutorial | Lernen Sie auch über | Status |
|---|---|---|---|---|
| Bildunterschrift | Zeigen, teilnehmen und erzählen | Ein Pytorch -Tutorial zur Bildunterschrift | • Encoder-Decoder-Architektur • Aufmerksamkeit • Lernen übertragen • Strahlsuche | ? vollständig |
| Sequenzmarkierung | Kennzeichnung der Sequenz-Kennzeichnung mit aufgabenbewusster neuronaler Sprachmodell | Ein Pytorch -Tutorial zur Sequenzmarkierung | • Sprachmodelle • Charakter -RNNs • Multi-Task-Lernen • Bedingte Zufallsfelder • Viterbi -Dekodierung • Autobahnnetzwerke | ? vollständig |
| Objekterkennung | SSD: Single -Shot -Multibox -Detektor | Ein Pytorch -Tutorial zur Objekterkennung | • Einzelschüsse-Erkennung • Multiscale -Feature -Karten • Priors • Multibox • Hartnegativer Bergbau • Nicht-Maximum-Unterdrückung | ? vollständig |
| Textklassifizierung | Hierarchische Aufmerksamkeitsnetzwerke für die Klassifizierung der Dokumente | Ein Pytorch -Tutorial zur Textklassifizierung | • Hierarchische Aufmerksamkeit | ? Code vollständig |
| Super-Auflösung | Photo-realistische Einzelbild-Superauflösung unter Verwendung eines generativen kontroversen Netzwerks | Ein Pytorch-Tutorial auf die Superauflösung | • Gans - Dies ist auch ein Gan -Tutorial • Restverbindungen • Subpixel-Faltung • Wahrnehmungsverlust | ? vollständig |
| Maschinelle Übersetzung | Aufmerksamkeit ist alles was Sie brauchen | Ein Pytorch -Tutorial für Transformers | • Transformatoren • Aufmerksamkeit mit mehreren Kopf • Positionseinbettungen • Encoder-Decoder-Architektur • Bytepaar -Codierung • Strahlsuche | ? vollständig |
| Semantische Segmentierung | Segformer: Einfaches und effizientes Design für die semantische Segmentierung mit Transformatoren | Ein Pytorch -Tutorial zur semantischen Segmentierung | N / A | ? geplant |