- Projektübersicht
- 1. Basics -Spalte Mathematik und Programmierbasis
- 2. Grundlegende Komponenten neuronaler Netze
- 3.. Klassisches Modell des neuronalen Netzwerks für das neuronale Netzwerk
- 4. Alchemie Deep Learning Alchemy
- 5. Deep Learning Model Compression
- Sechstens, Modellinferenzeinsatz
- 7. Fortgeschrittene Kurse
- Referenzen
Projektübersicht
Dieses Lagerprojekt ist ein Computervision und ein großes Sprachmodell-Lernnotizen, die vom Personal Computer Vision und großes Sprachmodell zusammengefasst sind, einschließlich grundlegender Kenntnis des tiefen Lernens, detaillierte Erklärung grundlegender Komponenten neuronaler Netzwerke, Alchemiestrategien für tiefes Lernen, Deep-Lernmodell-Komprimierungsalgorithmus, Deep-Learning-Inferenz-Framework-Code-Analyse und praktischer praktischer Kampf.
Für Spaltennotizen zu LLM -Grundlagen und Argumentationsoptimierung finden Sie im Lager LLM_NOTE.
1. Basics -Spalte Mathematik und Programmierbasis
- Grundlagen der Mathematik Deep Learning - Wahrscheinlichkeit und Informationstheorie
- Grundlagen von tiefen lernbasischen Prinzipien des maschinellen Lernens
- Die mathematische Grundlage des stochastischen Gradientenabstiegs
- Python Programming Mind Navigation
2. Grundlegende Komponenten neuronaler Netze
1. Grundkomponenten des neuronalen Netzwerks :
- Detaillierte Erläuterung der Grundkomponenten neuronaler Netze - Faltungsschicht
- Detaillierte Erläuterung der grundlegenden Komponenten des neuronalen Netzwerks - BN -Schicht
- Grundlegende Komponenten des neuronalen Netzwerks - Detaillierte Erläuterung der Aktivierungsfunktion
2. Grundlagen des tiefen Lernens :
- Detaillierte Erklärung der Backpropagation und des Gradientenabstiegs
- Grundlagen des tiefen Lernens - Detaillierte Erklärung der Parameterinitialisierung
- Grundlagen für Deep Learning - Detaillierte Erklärung der Verlustfunktionen
- Die Grundlagen des tiefen Lernens - detaillierte Erklärung des Optimierungsalgorithmus
3.. Klassisches Modell des neuronalen Netzwerks für das neuronale Netzwerk
1. Das klassische Rückgrat von Faltungsnetzwerken :
- Resnet -Netzwerkdetails
- Detaillierte Erläuterung des Densenet -Netzwerks
- Resnetv2 -Netzwerkdetails
- Klassische Zusammenfassung des Backbone -Netzwerks
2. Detaillierte Erläuterung des leichten Netzwerks :
- Detaillierte Erklärung des Mobilenetv1 -Papiers
- Detaillierte Erklärung des Shufflenetv2 -Papiers
- Detaillierte Erklärung von RepVGGG Paper
- Detaillierte Erläuterung des CSPNET -Papiers
- Interpretation von Vovnet -Papier
- Leichte Modellentwurfszusammenfassung
4. Alchemie Deep Learning Alchemy
- Deep Learning Alchemy-Data Standardisierung
- Deep Learning Alchemy-Data Verbesserung
- Alchemie Deep Learning - Verarbeitung unausgeglichener Proben
- Deep Learning Alchemy-Hyperparameter-Einstellung
- Deep Learning Alchemy-Regularisierungsstrategie
5. Deep Learning Model Compression
- Eine Zusammenfassung des Komprimierungsalgorithmus für Deep -Learning -Modellmodell
- Modellkompressionsummine von Leichtnetzwerkdesign und -bereitstellung
- Modellkompressionsdetailer Erklärung des Schnittalgorithmus
- Modellkompressionsdetailer Erklärung der Wissensdestillation
- Modellkompressionsdetailer Erläuterung des Quantisierungsalgorithmus
Sechstens, Modellinferenzeinsatz
1. Model Inference -Bereitstellung:
- Komplexitätsanalyse der Komplexität des neuronalen Netzwerks
- Modellkomprimierungsbereitstellungsübersicht
- Detaillierte Erläuterung der Matrixmultiplikation
- Modellinferenzbeschleunigungstechniken - Fusion Faltungsfaltung und BN -Schichten
2. ncnn Framework Quellcode Analyse:
- NCNN-Quellcode-Analyse-Probe läuft
- NCNN-Quellcode-Analyse-NET-Klasse
3. Heterogene Berechnung
- Mobiles terminales heterogenes Computer:
neon - GPU -terminales heterogenes Computing:
cuda -Programmierung, wie Analyse und Optimierung von gemm -Algorithmen
7. Fortgeschrittene Kurse
1. Empfehlen Sie mehrere bessere Lagerhäuser und Kursmaterialien für die Komprimierung und Beschleunigung des Deep -Learning -Modells:
- Tutorial über Grundprinzipien neuronaler Netze
- AI-System: Deep Learning System erklärt hauptsächlich die Prinzipien, Beschleunigungsmethoden, Matrixmultiplikation und Additionsberechnungen usw. aus der zugrunde liegenden Richtung.
- Pytorch-Deep-Learning: Ein gutes Tutorial für Deep Learning Pytorch.
2. Einige Blog -Links zu guten Notizen:
- Der illustrierte Transformator: Die meisten der besten Blogs in China beziehen sich auf diesen Artikel.
- C ++ gleichzeitige Programmierung (von C ++ 11 bis C ++ 17): Ein gutes C ++ -Programmier -Tutorial.
- Was sind Diffusionsmodelle?
- Annotated_deep_learning_paper_implementations
3. Schließlich 5 es nicht einfach, weiterhin hochwertige Produkte zu erstellen.
Der offizielle Konto wird weder Titel-Party-Artikel schreiben, noch wird es den ängstlichen Inhalt ausgeben, den es jedem bringt!

4. Star History Chart:
Referenzen
- Tiefes Lernen
- Maschinelles Lernen
- "Tiefes Lernen lernen"
- Maschinelles Lernsysteme: Design und Implementierung
- "Ai-edu"
- "AI-System"
- "Pytorch_tutorial_0.0.5_yu Tingsong"
- "Hobeler, ein Deep Learning Inference Framework"
- Destill: Wissen Essenz und Online -Visualisierung
- LLVM IR Erste Schritte
- Nanopyc
- ClassifyTemplate
- Pytorch-Klasse