Bienvenido a OpenVino ™, un conjunto de herramientas de software de código abierto para optimizar e implementar modelos de aprendizaje profundo.
Echa un vistazo a la hoja de trucos de OpenVino para una referencia rápida.
Obtenga su distribución preferida de OpenVino o use este comando para una instalación rápida:
pip install -U openvinoVerifique los requisitos del sistema y los dispositivos compatibles para obtener información detallada.
El ejemplo de OpenVino QuickStart lo guiará a través de los conceptos básicos de implementar su primer modelo.
Aprenda a optimizar e implementar modelos populares con los cuadernos de OpenVino:
Aquí hay ejemplos de código fácil de seguir que demuestran cómo ejecutar la inferencia del modelo Pytorch y TensorFlow usando OpenVino:
Modelo de pytorch
import openvino as ov
import torch
import torchvision
# load PyTorch model into memory
model = torch . hub . load ( "pytorch/vision" , "shufflenet_v2_x1_0" , weights = "DEFAULT" )
# convert the model into OpenVINO model
example = torch . randn ( 1 , 3 , 224 , 224 )
ov_model = ov . convert_model ( model , example_input = ( example ,))
# compile the model for CPU device
core = ov . Core ()
compiled_model = core . compile_model ( ov_model , 'CPU' )
# infer the model on random data
output = compiled_model ({ 0 : example . numpy ()})Modelo TensorFlow
import numpy as np
import openvino as ov
import tensorflow as tf
# load TensorFlow model into memory
model = tf . keras . applications . MobileNetV2 ( weights = 'imagenet' )
# convert the model into OpenVINO model
ov_model = ov . convert_model ( model )
# compile the model for CPU device
core = ov . Core ()
compiled_model = core . compile_model ( ov_model , 'CPU' )
# infer the model on random data
data = np . random . rand ( 1 , 224 , 224 , 3 )
output = compiled_model ({ 0 : data })OpenVino también admite dispositivos CPU, GPU y NPU y funciona con modelos en TensorFlow, Pytorch, ONNX, Tensorflow Lite, formatos de modelo Paddlepaddle. Con OpenVino, puede realizar mejoras automáticas de rendimiento en tiempo de ejecución personalizado para su hardware (preservación de la precisión del modelo), que incluye: ejecución asíncrona, procesamiento por lotes, fusión tensor, equilibrio de carga, paralelismo de inferencia dinámica, conversión automática de BF16 y más.
¡Mira el increíble repositorio de OpenVino para descubrir una colección de proyectos de IA hechos por la comunidad basados en OpenVino!
La documentación del usuario contiene información detallada sobre OpenVino y lo guía desde la instalación a través de la optimización e implementación de modelos para sus aplicaciones de IA.
La documentación del desarrollador se centra en cómo funcionan los componentes de OpenVino y describe los procesos de construcción y contribuyentes.
Consulte las pautas de contribución para obtener más detalles. Lea la sección de buenos primeros números, si está buscando un lugar para comenzar a contribuir. ¡Agradecemos las contribuciones de todo tipo!
Puede hacer preguntas y obtener apoyo en:
openvino en el desbordamiento de la pila*. OpenVino ™ recopila datos de rendimiento y uso del software con el fin de mejorar las herramientas de OpenVino ™. Estos datos son recopilados directamente mediante OpenVino ™ o mediante el uso de Google Analytics 4. Puede optar por no participar en cualquier momento ejecutando el comando:
opt_in_out --opt_outHay más información disponible en OpenVino ™ Telemetry.
OpenVino ™ Toolkit tiene licencia bajo la licencia Apache versión 2.0. Al contribuir al proyecto, usted acepta los términos de la licencia y los derechos de autor en el mismo y divulga su contribución bajo estos Términos.
* Otros nombres y marcas pueden ser reclamados como propiedad de otros.