Sie können es in einer Woche werden! Supercomputer -Programmierer
Repository (Kaityo256/Sevendayshpc)
HTML -Version
Bulk PDF -Version
Einführung
- Warum einen Supercomputer verwenden?
Tag 1: Aufbau einer Umgebung
Torie Azu erstellt eine Umgebung, in der Sie MPI auf Ihrem PC verwenden und einfache MPI -Programmierung ausprobieren können.
- Was ist MPI?
- Abgesehen davon: Ist MPI schwierig?
- Installieren von MPI
- Mein erster MPI
- Rang
- Über Standardausgabe
- Debugging von MPI -Programmen mit GDB
Tag 2: So verwenden Sie einen Supercomputer
Dinge zu wissen, wenn Sie einen Supercomputer verwenden. Wie man Jobs usw. wirft usw.
- Einführung
- Was ist ein Supercomputer?
- Abgesehen davon: Blugen/L -Speicherfehler
- So erhalten Sie ein Supercomputerkonto
- Wie funktioniert die Arbeitsplatzausführung
- So schreiben Sie ein Job -Skript
- Fairer Anteil
- Backfülle
- Kettenjob
- Inszenierung
- Parallele Dateisysteme
Tag 3: Selbstverständlicher Parallele
Über die selbstverständliche Parallelität, allgemein bekannt als "dumme Parallele".
- Was ist eine selbstverständliche Parallele oder sogar als dummes Para?
- Beispiel 1 der trivialen Parallelität: Zirkularität
- Selbstverständliche parallele Vorlage
- Triviales paralleles Beispiel 2: Umgang mit vielen Dateien
- Beispiel 3 der trivialen Parallelität: statistische Verarbeitung
- Parallelisierungseffizienz
- Unterschied zwischen der parallelen Stichprobe und der Parallelität der Parameter
Tag 4: Nicht-triviale Parallelität nach Bereichsabteilung
Als Beispiel für nicht triviale Parallelität werden wir die eindimensionalen Wärmeleitungsgleichungen in Regionen unterteilen.
- Nicht triviale Parallele
- Eindimensionale Diffusionsgleichung (serielle Version)
- Eindimensionale Diffusionsgleichung (Parallelversion)
- Beiseite: eifrig und rendezvous Protokolle
Tag 5: Zweidimensionale Reaktionsdiffusionsgleichung
Als Beispiel für ein umfassendes MPI-Programm werden wir die zweidimensionale Reaktionsdiffusionsgleichung in eine Region teilen.
- Serienversion
- Parallelisierungsschritt 1: Vorbereitung auf Kommunikation usw.
- Parallelisierungsschritt 2: Speichern Sie die Daten
- Parallelisierungsschritt 2: Kommunikation von Norishiro
- Parallelisierungsschritt 3: Implementierung des Parallelcode
- Beiseite: MPIs Ärger
Tag 6: Hybridparallel
Hybridparallelisierung unter Verwendung von Prozessparallel und Fadenparallelität. Dinge, die besonders vorsichtig sein sollten, wenn es umsetzt.
- Was ist Hybrid parallel?
- Virtuelles Gedächtnis und TLB
- Beiseite: über tlb fehl
- Numa
- OpenMP -Beispiel
- Leistungsbewertung
- ABSEREN: Rocks Geschichte
- Beispiele für Hybridparallelität
Tag 7: Simd
In Bezug auf die SIMD -Konvertierung.
- Einführung
- Was ist SIMD?
- Versuchen Sie, das SIMD -Register zu berühren
- Beiseite: Assemblersprache? Montagesprache?
- Einfaches Simd -Beispiel
- Abgesehen von: Handhabung der schwimmenden Punktarithmetika in x86
- Eine praktischere SIMD -Version
Abschluss
Lizenz
Copyright (C) 2018-Präsentieren Hiroshi Watanabe
Dieser Text und Illustration (einschließlich PPTX-Dateien) finden Sie in der Zuordnung von Creative Commons 4.0 (CC-by 4.0).
Dieser Artikel und die Bilder sind unter einer internationalen Lizenz für Creative Commons zuzuschreiben.
Die in diesem Repository enthaltenen Programme werden im Rahmen der MIT -Lizenz bereitgestellt.
Die Quellcodes in diesem Repository sind unter der MIT -Lizenz lizenziert.
Beim Erstellen der HTML-Version wird GitHub-Markdown-CSS als CSS verwendet.