欢迎使用OpenVino™,这是一种开源软件工具包,用于优化和部署深度学习模型。
查看OpenVino备忘单以进行快速参考。
获取您首选的OpenVino分布或使用此命令快速安装:
pip install -U openvino检查系统要求和支持的设备以获取详细信息。
OpenVino QuickStart示例将带您完成部署第一个模型的基础知识。
了解如何使用OpenVino笔记本进行优化和部署流行的模型:
以下是易于遵循的代码示例,演示了如何使用OpenVino运行Pytorch和Tensorflow模型推断:
Pytorch模型
import openvino as ov
import torch
import torchvision
# load PyTorch model into memory
model = torch . hub . load ( "pytorch/vision" , "shufflenet_v2_x1_0" , weights = "DEFAULT" )
# convert the model into OpenVINO model
example = torch . randn ( 1 , 3 , 224 , 224 )
ov_model = ov . convert_model ( model , example_input = ( example ,))
# compile the model for CPU device
core = ov . Core ()
compiled_model = core . compile_model ( ov_model , 'CPU' )
# infer the model on random data
output = compiled_model ({ 0 : example . numpy ()})TensorFlow模型
import numpy as np
import openvino as ov
import tensorflow as tf
# load TensorFlow model into memory
model = tf . keras . applications . MobileNetV2 ( weights = 'imagenet' )
# convert the model into OpenVINO model
ov_model = ov . convert_model ( model )
# compile the model for CPU device
core = ov . Core ()
compiled_model = core . compile_model ( ov_model , 'CPU' )
# infer the model on random data
data = np . random . rand ( 1 , 224 , 224 , 3 )
output = compiled_model ({ 0 : data })OpenVino还支持CPU,GPU和NPU设备,并与Tensorflow,Pytorch,Onnx,Tensorflow Lite,PaddlePaddle模型格式的型号一起使用。借助OpenVino,您可以在自定义用于硬件的运行时进行自动性能增强功能(保留模型精度),包括:异步执行,批处理处理,张量融合,负载平衡,动态推断并行性,自动BF16转换等等。
查看Awesome OpenVino存储库,以发现基于OpenVino的社区制造的AI项目的集合!
用户文档包含有关OpenVino的详细信息,并通过优化和部署AI应用程序来指导您安装。
开发人员文档的重点是OpenVino组件的工作方式,并描述了构建和贡献过程。
查看贡献指南以获取更多详细信息。如果您正在寻找一个开始贡献的地方,请阅读良好的第一个问题部分。我们欢迎各种贡献!
您可以提出问题并获得支持:
openvino标签*。 OpenVino™收集软件性能和使用数据,以改善OpenVino™工具。此数据是通过OpenVino™直接收集的,也可以通过使用Google Analytics(Analytics 4)收集。您可以随时运行命令:
opt_in_out --opt_out请访问更多信息,请访问OpenVino™遥测。
OpenVino™工具包已在Apache许可证2.0版下获得许可。通过为该项目做出贡献,您同意其中的许可和版权条款,并根据这些条款发布您的贡献。
*其他名称和品牌可能被称为他人的财产。