歡迎使用OpenVino™,這是一種開源軟件工具包,用於優化和部署深度學習模型。
查看OpenVino備忘單以進行快速參考。
獲取您首選的OpenVino分佈或使用此命令快速安裝:
pip install -U openvino檢查系統要求和支持的設備以獲取詳細信息。
OpenVino QuickStart示例將帶您完成部署第一個模型的基礎知識。
了解如何使用OpenVino筆記本進行優化和部署流行的模型:
以下是易於遵循的代碼示例,演示瞭如何使用OpenVino運行Pytorch和Tensorflow模型推斷:
Pytorch模型
import openvino as ov
import torch
import torchvision
# load PyTorch model into memory
model = torch . hub . load ( "pytorch/vision" , "shufflenet_v2_x1_0" , weights = "DEFAULT" )
# convert the model into OpenVINO model
example = torch . randn ( 1 , 3 , 224 , 224 )
ov_model = ov . convert_model ( model , example_input = ( example ,))
# compile the model for CPU device
core = ov . Core ()
compiled_model = core . compile_model ( ov_model , 'CPU' )
# infer the model on random data
output = compiled_model ({ 0 : example . numpy ()})TensorFlow模型
import numpy as np
import openvino as ov
import tensorflow as tf
# load TensorFlow model into memory
model = tf . keras . applications . MobileNetV2 ( weights = 'imagenet' )
# convert the model into OpenVINO model
ov_model = ov . convert_model ( model )
# compile the model for CPU device
core = ov . Core ()
compiled_model = core . compile_model ( ov_model , 'CPU' )
# infer the model on random data
data = np . random . rand ( 1 , 224 , 224 , 3 )
output = compiled_model ({ 0 : data })OpenVino還支持CPU,GPU和NPU設備,並與Tensorflow,Pytorch,Onnx,Tensorflow Lite,PaddlePaddle模型格式的型號一起使用。借助OpenVino,您可以在自定義用於硬件的運行時進行自動性能增強功能(保留模型精度),包括:異步執行,批處理處理,張量融合,負載平衡,動態推斷並行性,自動BF16轉換等等。
查看Awesome OpenVino存儲庫,以發現基於OpenVino的社區製造的AI項目的集合!
用戶文檔包含有關OpenVino的詳細信息,並通過優化和部署AI應用程序來指導您安裝。
開發人員文檔的重點是OpenVino組件的工作方式,並描述了構建和貢獻過程。
查看貢獻指南以獲取更多詳細信息。如果您正在尋找一個開始貢獻的地方,請閱讀良好的第一個問題部分。我們歡迎各種貢獻!
您可以提出問題並獲得支持:
openvino標籤*。 OpenVino™收集軟件性能和使用數據,以改善OpenVino™工具。此數據是通過OpenVino™直接收集的,也可以通過使用Google Analytics(Analytics 4)收集。您可以隨時運行命令:
opt_in_out --opt_out請訪問更多信息,請訪問OpenVino™遙測。
OpenVino™工具包已在Apache許可證2.0版下獲得許可。通過為該項目做出貢獻,您同意其中的許可和版權條款,並根據這些條款發布您的貢獻。
*其他名稱和品牌可能被稱為他人的財產。