注意 2020 版的发布说明,请参阅英特尔® Distribution of OpenVINO™ toolkit 2020 版的发布说明。
英特尔® Distribution of OpenVINO™ toolkit 用于快速开发应用程序和解决方案,以解决各种任务(例如:模拟人类视觉、自动语音识别、自然语言处理和推荐系统等)。该工具套件基于最新一代的人工神经网络,包括卷积神经网络 (CNN)、递归网络和基于注意力的网络,可扩展跨英特尔® 硬件的计算机视觉和非视觉工作负载,从而最大限度地提高性能。它通过从边缘到云部署的高性能、人工智能和深度学习推理来为应用程序加速。
英特尔® Distribution of OpenVINO™ toolkit
现在可以在 Windows*、Linux* 和 macOS*上使用 pip install openvino-dev,以 Python wheel 包的形式提供开发人员工具,轻松进行软件包的安装和升级。
工具套件组件弃用通知:英特尔® Media SDK
弃用生效日期 | 2021 年 3 月 23 日 |
---|---|
移除日期 | 2021 年 10 月 |
操作系统弃用通知:CentOS*
弃用生效日期 | 2021 年 3 月 23 日 |
---|---|
移除日期 | 2021 年 10 月 |
有关支持的硬件和操作系统的完整列表,请参阅系统要求。
2021.3(此版本) |
2021.4 LTS |
2022.1(2021 年 10 月) |
|
支持 |
CentOS 7 RHEL 8 |
CentOS 7 RHEL 8 |
RHEL 8
|
操作系统支持更新通知:Ubuntu* 18.0x
变更通知开始 | 2021 年 3 月 23 日 |
---|---|
支持变更日期 | 2021 年 10 月 |
Ubuntu 18.0x 将转为有限支持。 Ubuntu 18.0x 将无法支持从 2022.1 版本及更高版本新发布的英特尔® 硬件。
框架弃用通知:TensorFlow* 1.x
变更通知开始 | 2021 年 3 月 23 日 |
---|---|
支持变更日期 | 2021 年 10 月 |
模型优化器
常见的变更
ONNX*
增加了对以下操作的支持:
GatherElements - 11, 13
TensorFlow*
现在将 CTCGreedyDecoder 转换为 OpenVINO 操作 CTCGreedyDecoderSeqLen。请参阅 OpenVINO 操作规范以了解更多信息。
MXNet*
TensorFlow 2*
推理引擎
常见变更
弃用的 API:
已弃用 InferenceEngine::IVariableState 接口,请使用 InferenceEngine::VariableState C++ 封装器
推理引擎 Python API
推理引擎 Python API
CPU 插件
CPU 插件
GPU 插件
GPU 插件
MYRIAD 插件
MYRIAD 插件
HDDL 插件
HDDL 插件
GNA 插件
GNA 插件
nGraph
公共 nGraph API 的更改
增加了 add_parameters/remove_parameter 方法
训练后优化工具
深度学习工作台
Open Model Zoo
借助额外的 CNN-预训练模型和预生成的中间表示文件 (.xml
+ .bin
) 对 Open Model Zoo 进行了扩展。颜色编码:替代 2021.2 模型、新模型、弃用模型:
对以下模型的支持扩展了公有模型列表:
模型名称 |
任务 |
框架 |
---|---|---|
aclnet-int8 |
声音分类 | PyTorch |
deblurgan-v2 | 图像处理 | PyTorch |
densenet-201-tf | 分类 | TensorFlow |
dla-34 | 分类 | PyTorch |
fastseg-large | 语义分割 | PyTorch |
fastseg-small | 语义分割 | PyTorch |
netvlad-tf | 地点识别 | TensorFlow |
regnetx-3.2gf | 分类 | PyTorch |
rexnet-v1-x1.0 | 分类 | PyTorch |
ssh-mxnet | 物体检测 | MxNet |
重组了 Open Model Zoo 演示文件夹,以删除
增加了新的演示应用程序:
object_detection_demo 扩展了新模型支持,包括扩展了支持新模型的 Yolo-V4、segmentation_demo
Open Model Zoo 工具:
--output_dir
的值是相对路径时,修复了带有存档文件的下载模型。模型转换器:
模型服务器
OpenVINO 开发人员工具现在可作为 Python wheel 包提供。如果要安装推理引擎、模型优化器、训练后优化工具和精度检查工具实用程序,只需在您的 Python 虚拟环境中运行 pip install openvino-dev。 仅限运行时的 wheel 软件包 (pip install openvino) 也已更新,并且在使用任何一个 Python 软件包时,都不再需要在 Linux 和 macOS 上设置 Windows PATH 或 LD_LIBRARY_PATH 变量。这些软件包可以安装在许多版本的 Linux 和 Windows 上,并具有以下方面的官方支持:
受支持的操作系统 |
Python* 版本(64 位) |
---|---|
Ubuntu* 18.04 长期支持 (LTS) 版本,64 位 | 3.6、3.7 |
Ubuntu* 20.04 长期支持 (LTS) 版本,64 位 | 3.6、3.7 |
Red Hat* Enterprise Linux* 8,64 位 | 3.6、3.7 |
CentOS* 7,64 位 | 3.6、3.7 |
macOS* 10.15.x 版本 | 3.6、3.7、3.8 |
Windows 10*,64 位 | 3.6、3.7、3.8 |
模型优化器
常见的变更
ONNX*
TensorFlow*
MXNet*
Kaldi*
推理引擎
常见变更
setBatchSize 方法现已迁移到重塑方法逻辑中,以更新模型的输入形状。此外,它还应用了对模型中的某些不可重塑模式进行松弛的智能重塑转换。现在可以对同一模型使用 setBatchSize 和重塑方法,不会导致先前版本中的未定义行为。
在 Windows 平台上,推理引擎库在文件属性中拥有新的“详细信息”部分。该部分包含有关动态链接库 (DLL) 的信息,包括库的描述和版本。
废弃 API
IMemoryState 更名为 IVariableState,旧名称仍可使用,但不推荐
CPU 插件
CPU 插件
GPU 插件
GPU 插件
MYRIAD 插件
MYRIAD 插件
HDDL 插件
HDDL 插件
GNA 插件
GNA 插件
推出 Sink 类以方便识别属于图形中的“Sinks”(未被任何其他节点使用的节点)的运算。通过“添加/移除 Sinks”的方法扩展了 nGraph Function API。目前,只有 Assign 节点继承自 Sync 类,Result 节点是单独存储的特殊节点,并不是 Sinks。
训练后优化工具
深度学习工作台
使用额外的 CNN 预训练模型和预生成的中间表示 (.xml
+ .bin
) 扩展了 Open Model Zoo:
替换了 2021.1 模型:
对以下模型的支持扩展了公有模型列表:
模型名称 |
任务 |
框架 |
---|---|---|
anti-spoof-mn3 |
分类 | PyTorch |
cocosnet | 图像翻译 | PyTorch |
colorization-v2 | 图像处理 | PyTorch |
colorization-siggraph | 图像处理 | PyTorch |
common-sign-language-0001 | 分类 | PyTorch |
efficientdet-d0-tf | 物体检测 | TensorFlow |
efficientdet-d1-tf | 物体检测 | TensorFlow |
forward-tacotron-duration-prediction | 文字转语音 | PyTorch |
forward-tacotron-regression | 文字转语音 | PyTorch |
fcrn-dp-nyu-depth-v2-tf | 深度估计 | TensorFlow |
hrnet-v2-c1-segmentation | 语义分割 | PyTorch |
mozilla-deepspeech-0.8.2 | 语音识别 | TensorFlow |
shufflenet-v2-x1.0 | 分类 | PyTorch |
wavernn-rnn | 文字转语音 | PyTorch |
wavernn-upsampler | 文字转语音 | PyTorch |
yolact-resnet50-fpn-pytorch | 实例分割 | PyTorch |
yolo-v4-tf | 物体检测 | TensorFlow |
用着色模型的 PyTorch 变体来取代该模型的旧的 Caffe 变体。
移除了已废弃的 object_detection_demo_faster_rcnn。
Open Model Zoo 工具:
有关 DL Streamer 的更多信息,请参阅位于 GitHub 上的 DL Streamer 开源项目存储库“openVINO™ 工具套件 - DL Streamer”中的 DL Streamer 教程、API 参考和样本。还可访问“DL Streamer 样本”查看样本文档。
模型服务器
OpenVINO™ 安全插件
该安全插件是一组工具,让模型开发人员能够使用 OpenVINO™ 模型服务器控制开发后对模型的访问,并检查在受控环境中运行期间对模型的访问。它由定义模型访问控制的一组开发工具、在将模型加载到模型服务器之前检查模型许可证的许可服务、位于 OpenVINO™ 模型服务器内的可在其中执行访问受控模型的隔离环境组成。
安全插件的关键功能
模型优化器
常见的变更
ONNX*
TensorFlow*
MXNet*
Kaldi*
推理引擎
常见变更
推理引擎 Python API
推理引擎 Python API
推理引擎 C API
推理引擎 C API
CPU 插件
CPU 插件
GPU 插件
GPU 插件
MYRIAD 插件
MYRIAD 插件
HDDL 插件
HDDL 插件
GNA 插件
GNA 插件
已启用图形节点的设置参数。
已启用使用 Python API 读取 ONNX 模型。
训练后优化工具
深度学习工作台
使用额外的 CNN 预训练模型和预生成的中间表示 (.xml
+ .bin
) 扩展了 Open Model Zoo:
替换了 2020.4 模型:
对以下模型的支持扩展了公有模型列表:
模型名称 |
框架 |
---|---|
aclnet |
PyTorch |
resnest-50 | PyTorch |
mozilla-deepspeech-0.6.1 | Tensorflow |
yolo-v3-tiny-tf | Tensorflow |
有关 DL Streamer的 更多信息,请参阅 OpenVINO™ 推理引擎样本中的 DL Streamer 教程、API 参考和示例文档,以及位于 OpenVINO™ 工具套件 - GitHub 的 DL Streamer 资源库中的 DL Streamer 开源项目新主页。
模型服务器
模型服务器是一个可扩展的高性能工具,用于服务采用 OpenVINO™ 优化的模型。它通过 gRPC 或 HTTP/REST 端点提供推理服务,使您无需编写定制代码即可将模型更快地投入生产。
主要特性和优势:
有关模型服务器的更多信息,请参阅开源回购和模型服务器版本说明。预构建 Docker 映像可通过 openvino/model_server 获取。
预览功能是一项正在推出的功能,以便获得开发人员早期反馈。欢迎向论坛提交有关预览功能的评论、提问和建议。
预览功能的关键属性:
注意:预览功能/支持在未来会发生变化。其在未来的版本中可能会被移除或更改。对预览功能的更改不需要经过废除和删除的过程。因此,不鼓励在生产代码库中使用预览功能。
Jira ID |
描述 |
组件 |
周转 |
---|---|---|---|
#1 | 仍有许多尚待解决的问题,请参阅“英特尔® Distribution of OpenVINO™ toolkit v.2020 发布说明”中的“已知问题”部分 | 全部 | 无 |
21670 | 当指定 8 位量化时,英特尔® GNA 插件无法对具有双峰权重分布的 FC 层进行精确量化。数值接近于 0 的权重被设置为零。 | IE GNA 插件 | 目前,在这些用例中使用 16 位权重。 |
25358 | 在 GT3e/GT4e/ICL NUC 平台上,GPU 插件可能会出现一些性能降级 | IE GPU 插件 | 无 |
24709 | 重新训练的 TensorFlow 对象检测 API RFCN 模型有显著的精度降级。只有预训练模型才会生成正确的推理结果。 | 全部 | 如果需要对模型进行再训练,则使用 Faster-RCNN 模型取代 RFCN 模型。 |
26388 |
由于缺少状态处理,搭载 LSTMCell 的低延迟(批量尺寸 1)图形无法正确推理。 | 全部 | |
24101 | 如果层不进行 64 字节对齐,性能和内存的消耗可能会很差。 | IE GNA 插件 | 尝试避开未进行 64 字节对齐的层,让模型 GNA 变得友好。 |
28259 | 在 Python 接口中进行缓慢的 BERT 推理。 | IE Python | 仅在导入 PyTorch 时可见。请勿导入 PyTorch 模块。 |
35367 | [IE][TF2] 在 FP32 的最后一次张量检查中,有几个模型失败。 | IE MKL-DNN 插件 | |
39060 | CentOS 7上的大量模型使 LoadNetwork 崩溃。 | IE MKL-DNN 插件 | |
34087 | [cIDNN]OpenCL 驱动程序升级导致多个模型的性能降级。 | clDNN | |
33132 | [IE CLDNN] FP32 模型在 ICLU GPU 上的准确性和最后张量检验回归 | IE clDNN 插件 | |
25358 | [cIDNN]R4 上 NUC 和 ICE_Lake 目标的性能下降。 | IE clDNN 插件 | 无 |
39136 | 重塑失败后调用 LoadNetwork 会引发异常 | IE NG 集成 | |
42203 | 受中国的防火墙限制,中国客户从新存储 https://storage.openvinotoolkit.org/ 下载内容时可能会遇到一些问题 |
OMZ | 请使用含有旧存储 download.01.org 链接的分支 https://github.com/openvinotoolkit/open_model_zoo/tree/release-01org |
24757 | 异构模式不适用于 GNA | IE GNA 插件 | 拆分模型以在 CPU 上运行不受支持的层 |
48177 | 无法使用 python3.8 导入 IE Python API | Python API | 请在 PyPI (https://pypi.org/project/openvino) 上使用 wheel 软件包 |
英特尔® Distribution of OpenVINO™ toolkit 提供以下版本:
组件 | 许可 | 位置 | Windows | Linux | macOS |
---|---|---|---|---|---|
深度学习模型优化器 为已训练模型准备的模型优化工具 |
Apache 2.0 |
|
是 | 是 | 是 |
深度学习推理引擎 统一的 API 将推理集成到应用程序逻辑中 推理引擎标题 |
EULA
Apache 2.0 |
|
是 | 是 | 是 |
OpenCV* 库 为英特尔® 硬件编译的 OpenCV* 社区版本 |
Apache 2.0 |
|
是 | 是 | 是 |
英特尔® Media SDK 库(开源版本) 简化 OpenVINO™ 工具套件和英特尔® Media SDK 之间的集成。 |
MIT |
|
否 | 是 | 否 |
OpenVINO™ 工具套件文档 开发人员指南和其他文档 |
可从 OpenVINO™ 工具套件产品网站获取,不包含在安装程序包内。 | 否 | 否 | 否 | |
Open Model Zoo 来自英特尔® Open Model Zoo 的模型文档。使用模型下载程序,下载二进制格式的模型。 |
Apache 2.0 |
|
是 | 是 | 是 |
推理引擎样本 说明推理引擎 API 用途的示例和演示如何在您的应用程序中使用英特尔® Distribution of OpenVINO™ toolkit 功能的示例 |
Apache 2.0 |
|
是 | 是 | 是 |
深度学习工作台 支持通过 OpenVINO™ 模型优化器运行深度学习模型、将模型转换为 INT8、微调模型、运行推理,以及测量准确性。 |
EULA | 从英特尔® Distribution of OpenVINO™ 工具套件 2021.3 版本开始,DL Workbench 仅可作为预构建的 Docker 映像使用。在 OpenVINO 安装中保留了对 DL Workbench 的引用,但现在从 DockerHub 中提取了预构建的映像,而不是从软件包中对其进行构建。 | 是 | 是 | 是 |
训练后优化工具套件 设计旨在通过应用不需要重新训练(例如,训练后量化)的特定方法来将模型转化为对硬件更加友好的表示文件。 |
EULA |
|
是 | 是 | 是 |
语音库和端到端的语音演示
|
GNA 软件许可协议 |
|
是 | 是 | 否 |
DL Streamer | EULA | 否 | 是 | 否 |
DockerHub CI
DockerHub CI 框架可借助英特尔® Distribution of OpenVINO™ toolkit 生成Dockerfile、构建、测试和部署镜像。
您可以添加层,并根据需求自定义 OpenVINO™ 镜像。您可以重复使用可用的 Dockerfile。
免责声明:某些硬件(包括但不限于 GPU 和 GNA)要求安装特定的驱动程序才能正常工作。驱动程序可能需要更新您的操作系统(包括 Linux 内核),请参参阅相关文档。操作系统更新应由用户处理,不包含在 OpenVINO 安装内。
硬件:
操作系统:
硬件:
操作系统:
注意 此安装需要未包含在英特尔 Distribution of OpenVINO 工具套件包中的驱动程序
注意:英特尔®️ 至强® 处理器需要支持处理器显卡的芯片组。图形处理器并未包含在所有处理器中。参见产品规格来获得关于您处理器的信息。
操作系统:
搭载英特尔® Movidius™ 视觉处理器 (VPU) 的英特尔® Vision Accelerator Design
操作系统:
英特尔® Movidius™ 神经电脑棒和英特尔® 神经电脑棒 2
操作系统:
搭载英特尔® Movidius™ Myriad™ X C0 视觉处理器和 1 个 MYDX 的 AI Edge Computing Board:
操作系统:
在验证过程中使用的操作系统:
macOS 构建环境需要以下组件:
用于验证的 DL 框架:
注意: 上面指定的 CMake 版本是从源构建 OpenVINO 的。 从英特尔® Distribution of OpenVINO™ 工具套件构建示例和演示需要 CMake* 3.10 或更高版本(Windows 除外,在 Windows 中首先需要 CMake 3.14 支持 Visual Studio 2019)。
注意:在新窗口中打开链接。
您使用本文档时不得涉及针对本文档所述英特尔产品的任何侵权分析或其他法律分析,也不得为此提供便利。您同意就此后起草的任何专利权利(包括此处披露的主题)授予英特尔非排他性的免版税许可。
本文档未授予任何公司或其他机构知识产权许可(明示或暗示、明确或隐含地)。
此处提供的信息可随时改变而毋需通知。关于最新英特尔® 产品的规格和路线图,请联系您的英特尔代表。
所述产品可能包含设计缺陷或错误(即勘误表),这可能会使产品与已发布的技术规格有所偏差。可应要求提供当前的勘误表。
英特尔技术特性和优势取决于系统配置,并可能需要支持的硬件、软件或服务激活。访问 http://www.intel.cn/ 了解详情,或咨询生产厂家或零售商。
没有任何计算机系统能保证绝对安全。
英特尔、Arria、酷睿、Movidius、至强、OpenVINO 和英特尔标志是英特尔公司在美国和/或其他国家(地区)的商标。
OpenCL 和 OpenCL 标识是 Apple Inc.的商标,经 Khronos 许可使用
* 文中涉及的其它名称及商标属于各自所有者资产。
版权所有 © 2021 英特尔公司。保留所有权利。
有关编译器优化的更完整信息,请参阅我们的优化说明。