ディープラーニングモデルを最適化および展開するためのオープンソースソフトウェアツールキットであるOpenVino™へようこそ。
簡単な参照については、OpenVinoチートシートをご覧ください。
OpenVinoのお好みの配布を取得するか、このコマンドを使用して迅速なインストールに使用してください。
pip install -U openvino詳細については、システムの要件とサポートされているデバイスを確認してください。
OpenVino QuickStartの例では、最初のモデルを展開することの基本を説明します。
OpenVinoノートブックで人気モデルを最適化して展開する方法を学びます。
OpenVinoを使用してPytorchおよびTensorflowモデルの推論を実行する方法を示す簡単なコードの例を次に示します。
Pytorchモデル
import openvino as ov
import torch
import torchvision
# load PyTorch model into memory
model = torch . hub . load ( "pytorch/vision" , "shufflenet_v2_x1_0" , weights = "DEFAULT" )
# convert the model into OpenVINO model
example = torch . randn ( 1 , 3 , 224 , 224 )
ov_model = ov . convert_model ( model , example_input = ( example ,))
# compile the model for CPU device
core = ov . Core ()
compiled_model = core . compile_model ( ov_model , 'CPU' )
# infer the model on random data
output = compiled_model ({ 0 : example . numpy ()})Tensorflowモデル
import numpy as np
import openvino as ov
import tensorflow as tf
# load TensorFlow model into memory
model = tf . keras . applications . MobileNetV2 ( weights = 'imagenet' )
# convert the model into OpenVINO model
ov_model = ov . convert_model ( model )
# compile the model for CPU device
core = ov . Core ()
compiled_model = core . compile_model ( ov_model , 'CPU' )
# infer the model on random data
data = np . random . rand ( 1 , 224 , 224 , 3 )
output = compiled_model ({ 0 : data })OpenVinoはまた、CPU、GPU、およびNPUデバイスをサポートし、Tensorflow、Pytorch、ONNX、Tensorflow Lite、PaddlePaddleモデル形式のモデルを使用しています。 OpenVinoを使用すると、非同期実行、バッチ処理、テンソル融合、ロードバランス、動的推論並列性、自動BF16変換などを含む、ハードウェアにカスタマイズされた実行時に自動パフォーマンス強化を行うことができます。
Awesome OpenVinoリポジトリをチェックして、OpenVinoに基づいたコミュニティ製のAIプロジェクトのコレクションを発見してください!
ユーザーのドキュメントには、OpenVinoに関する詳細情報が含まれており、AIアプリケーションのモデルの最適化と展開を通じてインストールからガイドします。
開発者のドキュメントでは、OpenVinoコンポーネントの仕組みに焦点を当て、プロセスの構築と貢献を説明しています。
詳細については、貢献ガイドラインをご覧ください。貢献を開始する場所を探している場合は、Good First Issueセクションをお読みください。あらゆる種類の貢献を歓迎します!
あなたは質問をして、サポートを得ることができます:
openvinoタグ*。 OpenVino™は、OpenVino™ツールを改善する目的で、ソフトウェアのパフォーマンスと使用データを収集します。このデータは、OpenVino™またはGoogle Analytics 4の使用によって直接収集されます。コマンドを実行して、いつでもオプトアウトできます。
opt_in_out --opt_out詳細については、OpenVino™テレメトリで入手できます。
OpenVino™Toolkitは、Apacheライセンスバージョン2.0でライセンスされています。プロジェクトに貢献することにより、お客様はライセンスとその著作権条件に同意し、これらの条件に基づいて貢献をリリースします。
*他の名前とブランドは、他の名前と主張される場合があります。