Добро пожаловать в OpenVino ™, программный набор программного обеспечения с открытым исходным кодом для оптимизации и развертывания моделей глубокого обучения.
Проверьте шпаргалку OpenVino для быстрого использования.
Получите предпочтительное распределение OpenVino или используйте эту команду для быстрой установки:
pip install -U openvinoПроверьте системные требования и поддерживаемые устройства для получения подробной информации.
Пример OpenVino QuickStart проведет вас через основы развертывания вашей первой модели.
Узнайте, как оптимизировать и развернуть популярные модели с ноутбуками OpenVino:
Вот простые в последующих примерах кода, демонстрирующие, как запустить вывод модели Pytorch и Tensorflow с использованием OpenVino:
Модель Pytorch
import openvino as ov
import torch
import torchvision
# load PyTorch model into memory
model = torch . hub . load ( "pytorch/vision" , "shufflenet_v2_x1_0" , weights = "DEFAULT" )
# convert the model into OpenVINO model
example = torch . randn ( 1 , 3 , 224 , 224 )
ov_model = ov . convert_model ( model , example_input = ( example ,))
# compile the model for CPU device
core = ov . Core ()
compiled_model = core . compile_model ( ov_model , 'CPU' )
# infer the model on random data
output = compiled_model ({ 0 : example . numpy ()})Tensorflow Model
import numpy as np
import openvino as ov
import tensorflow as tf
# load TensorFlow model into memory
model = tf . keras . applications . MobileNetV2 ( weights = 'imagenet' )
# convert the model into OpenVINO model
ov_model = ov . convert_model ( model )
# compile the model for CPU device
core = ov . Core ()
compiled_model = core . compile_model ( ov_model , 'CPU' )
# infer the model on random data
data = np . random . rand ( 1 , 224 , 224 , 3 )
output = compiled_model ({ 0 : data })OpenVino также поддерживает устройства процессора, GPU и NPU и работает с моделями в Tensorflow, Pytorch, Onnx, Tensorflow Lite, форматах модели PaddlePaddle. С помощью OpenVino вы можете выполнять автоматические улучшения производительности во время выполнения, настраиваемое на ваше оборудование (точность сохранения модели), включая: асинхронное выполнение, пакетную обработку, тензорное слияние, балансировку нагрузки, параллелизм динамического вывода, автоматическое преобразование BF16 и многое другое.
Проверьте потрясающий репозиторий OpenVino, чтобы открыть коллекцию проектов искусственного интеллекта из сообщества, основанных на OpenVino!
Пользовательская документация содержит подробную информацию о OpenVino и направляет вас от установки посредством оптимизации и развертывания моделей для ваших приложений искусственного интеллекта.
Документация разработчика фокусируется на том, как работают компоненты OpenVino, и описывает процессы строительства и внесения вклад.
Ознакомьтесь с руководящими принципами вклада для получения более подробной информации. Прочитайте раздел «Хорошие первые выпуски», если вы ищете место, чтобы начать вносить свой вклад. Мы приветствуем вклад всех видов!
Вы можете задать вопросы и получить поддержку на:
openvino на переполнении стека*. OpenVino ™ собирает данные о производительности и использовании программного обеспечения с целью улучшения инструментов OpenVino ™. Эти данные собираются непосредственно с помощью OpenVino ™ или с помощью Google Analytics 4. Вы можете в любое время отказаться, выполнив команду:
opt_in_out --opt_outБолее подробная информация доступна в телеметрии OpenVino ™.
OpenVino ™ Toolkit лицензирован в соответствии с лицензией Apache версии 2.0. Внося вклад в проект, вы соглашаетесь с лицензией и условиями авторского права в нем и выпускаете свой вклад в соответствии с настоящими Условиями.
* Другие имена и бренды могут быть заявлены как собственность других.