Willkommen bei OpenVino ™, einem Open-Source-Software-Toolkit zum Optimieren und Bereitstellen von Deep-Learning-Modellen.
Schauen Sie sich das OpenVino -Cheat -Blatt für eine kurze Referenz an.
Holen Sie sich Ihre bevorzugte Verteilung von OpenVino oder verwenden Sie diesen Befehl für die schnelle Installation:
pip install -U openvinoÜberprüfen Sie die Systemanforderungen und unterstützte Geräte auf detaillierte Informationen.
OpenVino QuickStart -Beispiel führt Sie durch die Grundlagen der Bereitstellung Ihres ersten Modells.
Erfahren Sie, wie Sie beliebte Modelle mit den OpenVino -Notizbüchern optimieren und bereitstellen:
Hier finden Sie leicht zu befolgende Code-Beispiele, die zeigen, wie Sie Pytorch- und TensorFlow-Modellinferenz mit OpenVino ausführen:
Pytorch -Modell
import openvino as ov
import torch
import torchvision
# load PyTorch model into memory
model = torch . hub . load ( "pytorch/vision" , "shufflenet_v2_x1_0" , weights = "DEFAULT" )
# convert the model into OpenVINO model
example = torch . randn ( 1 , 3 , 224 , 224 )
ov_model = ov . convert_model ( model , example_input = ( example ,))
# compile the model for CPU device
core = ov . Core ()
compiled_model = core . compile_model ( ov_model , 'CPU' )
# infer the model on random data
output = compiled_model ({ 0 : example . numpy ()})Tensorflow -Modell
import numpy as np
import openvino as ov
import tensorflow as tf
# load TensorFlow model into memory
model = tf . keras . applications . MobileNetV2 ( weights = 'imagenet' )
# convert the model into OpenVINO model
ov_model = ov . convert_model ( model )
# compile the model for CPU device
core = ov . Core ()
compiled_model = core . compile_model ( ov_model , 'CPU' )
# infer the model on random data
data = np . random . rand ( 1 , 224 , 224 , 3 )
output = compiled_model ({ 0 : data })OpenVino unterstützt auch CPU-, GPU- und NPU -Geräte und arbeitet mit Modellen in Tensorflow, Pytorch, ONNX, Tensorflow Lite, Paddlepaddle -Modellformaten. Mit OpenVino können Sie automatische Leistungsverbesserungen bei der Laufzeit durchführen, die an Ihre Hardware angepasst sind (Aufrechterhaltung der Modellgenauigkeit), einschließlich: asynchroner Ausführung, Batch -Verarbeitung, Tensorfusion, Lastausgleich, dynamische Inferenzparallelität, automatische BF16 -Konvertierung und vieles mehr.
Schauen Sie sich das Awesome OpenVino-Repository an, um eine Sammlung von von Community hergestellten KI-Projekten zu entdecken, die auf OpenVino basieren!
Die Benutzerdokumentation enthält detaillierte Informationen zu OpenVino und führt Sie von der Installation durch Optimierung und Bereitstellung von Modellen für Ihre KI -Anwendungen.
Die Entwicklerdokumentation konzentriert sich darauf, wie OpenVino -Komponenten funktionieren, und beschreibt das Erstellen und Beitragsprozesse.
Weitere Informationen finden Sie unter den Beitragsrichtlinien. Lesen Sie den Abschnitt "Good First Issues", wenn Sie nach einem Ort suchen, an dem Sie mitmachen können. Wir begrüßen Beiträge aller Art!
Sie können Fragen stellen und Unterstützung erhalten zu:
openvino -Tag auf Stack Overflow*. OpenVino ™ sammelt Software -Leistung und Nutzungsdaten, um OpenVino ™ -Tools zu verbessern. Diese Daten werden direkt von OpenVino ™ oder über die Verwendung von Google Analytics 4 gesammelt. Sie können sich jederzeit abmelden, indem Sie den Befehl ausführen:
opt_in_out --opt_outWeitere Informationen finden Sie bei OpenVino ™ Telemetrie.
OpenVino ™ Toolkit ist unter Apache -Lizenzversion 2.0 lizenziert. Durch den Beitrag zum Projekt stimmen Sie der Lizenz- und Urheberrechtsbedingungen darin zu und veröffentlichen Ihren Beitrag unter diesen Bedingungen.
* Andere Namen und Marken können als Eigentum anderer beansprucht werden.