
NEURAL -Netzwerkunterstützung als Gstreamer -Plugins.
NNStreamer ist ein Satz von Gstreamer -Plugins, mit denen Gstreamer -Entwickler neuronale Netzwerkmodelle einfach und effizient und neuronale Netzwerkentwickler annehmen können, um neuronale Netzwerkpipelines und deren Filter einfach und effizient zu verwalten.
Architekturbeschreibung (WIP)
In Richtung der KI von On-Device-KI mit Stream-Pipelines, IEEE/ACM ICSE 2022 SEIP in Richtung des Geräts
NNStreamer: Effiziente und agile Entwicklung von AI-Systemen On-Device-Systemen, IEEE/ACM ICSE 2021 SEP [Medien]
NNStreamer: Stream Processing Paradigm für neuronale Netze ... [PDF/Tech -Bericht]
Gstreamer Conference 2018, Nnstreamer [Media] [PDF/Slides]
Naver Tech Talk (Korean), 2018 [Medien] [PDF/Slides]
Samsung Developer Conference 2019, Nnstreamer (Medien)
ResearchGate -Seite von nnstreamer
| Tizen | Ubuntu | Android | Yocto | macos | |
|---|---|---|---|---|---|
| 5,5m2 und später | 16.04 /18.04/20.04/22.04 | 13 | Kirkstone | ||
| Arm | Verfügbar | Verfügbar | Bereit | N / A | |
| ARM64 | Verfügbar | N / A | |||
| x64 | Bereit | Bereit | Verfügbar | ||
| Veröffentlichen | Tizen Repo | PPA | Täglicher Bau | Schicht | Brauenhahn |
| API | C/C# (offiziell) | C | Java | C | C |
Bereit: CI-System sorgt für Build-Fähigkeit und Einheitstesting. Benutzer können problemlos erstellen und ausführen. In dieser Instanz haben wir jedoch kein automatisiertes Release- und Bereitstellungssystem.
Verfügbar: Binärpakete werden mit CI -Tests automatisch und regelmäßig bereitgestellt und bereitgestellt.
Tägliche Veröffentlichung
SDK -Unterstützung: Tizen Studio (5,5 m2+) / Android Studio (JCenter, "Nnstreamer")
Aktivierte Funktionen offizieller Veröffentlichungen
Bereitstellung neuronaler Netzwerk -Framework -Konnektivitäten (z. B. Tensorflow, Caffe) für Gstreamer -Streams.
Effizientes Streaming für KI -Projekte : Wenden Sie eine effiziente und flexible Stream -Pipeline auf neuronale Netze an.
Intelligente Medienfilter! : Verwenden Sie ein neuronales Netzwerkmodell als Medienfilter / Konverter.
Verbundmodelle! : Mehrere neuronale Netzwerkmodelle in einer einzelnen Stream -Pipeline -Instanz.
Multi -Modal Intelligence! : Mehrere Quellen und Streampfade für neuronale Netzwerkmodelle.
Stellen Sie einfache Methoden zur Konstruktion von Medienströmen mit neuronalen Netzwerkmodellen mit dem De-Facto-Standard-Medienstrom-Framework Gstreamer .
GStreamer -Benutzer: Verwenden Sie neuronale Netzwerkmodelle, als wären sie weitere Medienfilter.
Entwickler der neuronalen Netzwerke: Verwalten Sie Medienströme einfach und effizient.
Myungjoo Schinken
Jijoong Mond
Geunsik Lim
Sangjung Woo
Wook -Lied
Jaeyun Jung
Hyoungjoo Ahn
Parichay Kapoor
Dongju Chae
Gichan Jang
Yongjoo Ahn
Jihoon Lee
Beachten Sie, dass dieses Projekt gerade gestartet wurde und viele der Komponenten in der Designphase sind. Auf der Seite "Komponentenbeschreibung" beschreiben wir NNStreamer -Komponenten der folgenden drei Kategorien: Datentypdefinitionen, Gstreamer -Elemente (Plugins) und andere Verschiedenheitskomponenten.
Weitere Informationen erhalten Sie auf die folgenden Handbücher.
Für Linux-ähnliche Systeme wie Tizen, Debian und Ubuntu drücken Sie hier.
Drücken Sie für macOS -Systeme hier.
Drücken Sie hier, um eine API -Bibliothek für Android zu erstellen.







EDE-AI-Beispiele
Produkte mit nnstreamer
Nnstreamer Beispielanwendungen: Github / Screenshots
CI -Service -Status
Taos-CI-Konfigurationsdateien für Nnstreamer.
Obwohl ein Framework wie der Tensorflow-GPU transparent beschleunigen kann, bietet Nnstreamer verschiedene Hardware-Beschleunigungs-Subplugins.
Movidius-X über NCSDK2 Subplugin: freigegeben
Movidius-X über OpenVino Subplugin: freigegeben
Edge-TPU über EdgetPu Subplugin: veröffentlicht
Eine Laufzeit über NNFW (ein alter Name von einem ) Subplugin: veröffentlicht
Armnn über Armnn Subplugin: freigegeben
Verisilicon-vivante über Vivante Subplugin: freigegeben
Qualcomm SNPE über SNPE Subplugin: veröffentlicht
Qualcomm AI Engine Direct (QNN) über QNN Subplugin: freigegeben
Nvidia über Tensorrt Subplugin: freigegeben
Tri-X-NPUs: veröffentlicht
NXP I.MX -Serie: über den Anbieter
Andere: TVM, Tensorflow, Tensorflow-Lite, Pytorch, Caffe2, Snap, ...
Beiträge sind willkommen! Weitere Informationen finden Sie in unserem beitragenden Leitfaden.