딥 러닝 모델을 최적화하고 배포하기위한 오픈 소스 소프트웨어 툴킷 인 OpenVino ™에 오신 것을 환영합니다.
빠른 참조는 OpenVino 치트 시트를 확인하십시오.
OpenVino의 선호하는 배포를 받거나 빠른 설치 에이 명령을 사용하십시오.
pip install -U openvino자세한 정보는 시스템 요구 사항 및 지원 장치를 확인하십시오.
OpenVino QuickStart 예제는 첫 번째 모델을 배포하는 기본 사항을 안내합니다.
OpenVino 노트북으로 인기있는 모델을 최적화하고 배포하는 방법을 알아보십시오.
다음은 OpenVino를 사용하여 Pytorch 및 Tensorflow 모델 추론을 실행하는 방법을 보여주는 팔로우하기 쉬운 코드 예입니다.
Pytorch 모델
import openvino as ov
import torch
import torchvision
# load PyTorch model into memory
model = torch . hub . load ( "pytorch/vision" , "shufflenet_v2_x1_0" , weights = "DEFAULT" )
# convert the model into OpenVINO model
example = torch . randn ( 1 , 3 , 224 , 224 )
ov_model = ov . convert_model ( model , example_input = ( example ,))
# compile the model for CPU device
core = ov . Core ()
compiled_model = core . compile_model ( ov_model , 'CPU' )
# infer the model on random data
output = compiled_model ({ 0 : example . numpy ()})텐서 플로우 모델
import numpy as np
import openvino as ov
import tensorflow as tf
# load TensorFlow model into memory
model = tf . keras . applications . MobileNetV2 ( weights = 'imagenet' )
# convert the model into OpenVINO model
ov_model = ov . convert_model ( model )
# compile the model for CPU device
core = ov . Core ()
compiled_model = core . compile_model ( ov_model , 'CPU' )
# infer the model on random data
data = np . random . rand ( 1 , 224 , 224 , 3 )
output = compiled_model ({ 0 : data })OpenVino는 또한 CPU, GPU 및 NPU 장치를 지원하며 Tensorflow, Pytorch, Onnx, Tensorflow Lite, PaddlePaddle 모델 형식의 모델과 함께 작동합니다. OpenVino를 사용하면 비동기 실행, 배치 프로세싱, 텐서 퓨전,로드 밸런싱, 동적 추론, 자동 BF16 변환 등을 포함하여 하드웨어 (모델 정확도 보존)에 맞춤형 런타임에 자동 성능 향상을 수행 할 수 있습니다.
OpenVino를 기반으로 한 Community-Made AI 프로젝트 모음을 발견하려면 Awesome OpenVino 저장소를 확인하십시오!
사용자 문서에는 OpenVino에 대한 자세한 정보가 포함되어 있으며 AI 애플리케이션의 모델 최적화 및 배포를 통해 설치에서 안내합니다.
개발자 문서는 OpenVino 구성 요소의 작동 방식에 중점을두고 건물 및 기여 프로세스를 설명합니다.
자세한 내용은 기여 가이드 라인을 확인하십시오. 기여를 시작할 장소를 찾고 있다면 좋은 첫 번째 이슈 섹션을 읽으십시오. 우리는 모든 종류의 기여를 환영합니다!
질문을하고 지원할 수 있습니다.
openvino 태그*. OpenVino ™는 OpenVino ™ 도구를 개선 할 목적으로 소프트웨어 성능 및 사용 데이터를 수집합니다. 이 데이터는 OpenVino ™에 의해 직접 수집되거나 Google Analytics 4를 사용하여 직접 수집됩니다.
opt_in_out --opt_out자세한 내용은 OpenVino ™ 원격 측정에서 확인할 수 있습니다.
OpenVino ™ 툴킷은 Apache 라이센스 버전 2.0에 따라 라이센스가 부여됩니다. 프로젝트에 기여함으로써 귀하는 라이센스 및 저작권 용어에 동의하고 본 약관에 따라 귀하의 기여를 공개합니다.
* 다른 이름과 브랜드는 다른 이름의 재산으로 주장 될 수 있습니다.