Bienvenue à OpenVino ™, une boîte à outils logiciels open source pour optimiser et déployer des modèles d'apprentissage en profondeur.
Consultez la feuille de triche OpenVino pour une référence rapide.
Obtenez votre distribution préférée d'OpenVino ou utilisez cette commande pour une installation rapide:
pip install -U openvinoVérifiez les exigences du système et les appareils pris en charge pour des informations détaillées.
L'exemple OpenVino QuickStart vous guidera à travers les bases du déploiement de votre premier modèle.
Apprenez à optimiser et à déployer des modèles populaires avec les cahiers OpenVino:
Voici des exemples de code faciles à suivre montrant comment exécuter l'inférence du modèle Pytorch et TensorFlow à l'aide d'OpenVino:
Modèle pytorch
import openvino as ov
import torch
import torchvision
# load PyTorch model into memory
model = torch . hub . load ( "pytorch/vision" , "shufflenet_v2_x1_0" , weights = "DEFAULT" )
# convert the model into OpenVINO model
example = torch . randn ( 1 , 3 , 224 , 224 )
ov_model = ov . convert_model ( model , example_input = ( example ,))
# compile the model for CPU device
core = ov . Core ()
compiled_model = core . compile_model ( ov_model , 'CPU' )
# infer the model on random data
output = compiled_model ({ 0 : example . numpy ()})Modèle TensorFlow
import numpy as np
import openvino as ov
import tensorflow as tf
# load TensorFlow model into memory
model = tf . keras . applications . MobileNetV2 ( weights = 'imagenet' )
# convert the model into OpenVINO model
ov_model = ov . convert_model ( model )
# compile the model for CPU device
core = ov . Core ()
compiled_model = core . compile_model ( ov_model , 'CPU' )
# infer the model on random data
data = np . random . rand ( 1 , 224 , 224 , 3 )
output = compiled_model ({ 0 : data })OpenVino prend également en charge les appareils CPU, GPU et NPU et fonctionne avec des modèles dans TensorFlow, Pytorch, ONNX, TensorFlow Lite, Paddlepaddle Model Formats. Avec OpenVino, vous pouvez effectuer des améliorations automatiques de performances à l'exécution personnalisées sur votre matériel (préservation de la précision du modèle), y compris: exécution asynchrone, traitement par lots, fusion du tenseur, équilibrage de charge, parallélisme d'inférence dynamique, conversion automatique BF16, etc.
Découvrez le référentiel OpenVino impressionnant pour découvrir une collection de projets d'interstance communautaire basés sur OpenVino!
La documentation utilisateur contient des informations détaillées sur OpenVino et vous guide de l'installation par l'optimisation et le déploiement de modèles pour vos applications d'IA.
La documentation des développeurs se concentre sur le fonctionnement des composants OpenVino et décrit les processus de construction et de contribution.
Consultez les directives de contribution pour plus de détails. Lisez la section Good First Issues, si vous cherchez un endroit pour commencer à contribuer. Nous accueillons les contributions de toutes sortes!
Vous pouvez poser des questions et obtenir un soutien sur:
openvino sur le débordement de pile *. OpenVino ™ recueille les données logicielles et les données d'utilisation dans le but d'améliorer les outils OpenVino ™. Ces données sont recueillies directement par OpenVino ™ ou via l'utilisation de Google Analytics 4. Vous pouvez vous désactiver à tout moment en exécutant la commande:
opt_in_out --opt_outPlus d'informations sont disponibles chez OpenVino ™ Télémétrie.
La boîte à outils OpenVino ™ est sous licence sous la version 2.0 de la licence Apache. En contribuant au projet, vous acceptez les conditions de licence et de droit d'auteur et de publier votre contribution en vertu de ces conditions.
* D'autres noms et marques peuvent être revendiqués comme la propriété d'autres.