初识OpenVINO

一、简介

英特尔OpenVINO,全称Open Visual Inference Neural Network Optimization。

我们逐个单词解析一下,"open"是开源的意思,比如opencv;"visual"译为视觉的,"inference"与"optimization"分别译为推理与优化,Neural Network是神经网络的意思。这样看来,openvino这个单词就不难理解啦~

然后我们来整合一下,OpenVINO是一种用于深度神经网络中实现模型优化推理加速的开源工具套件。

该工具套件包含model optimizer 和 inference engine。


二、开发流程

将利用深度学习框架(如tensorflow、pytorch等)训练好的模型利用openvino工具套件中的模型优化器即model optimizee生成IR文件,其中包含.xml(描述神经网络的拓扑结构)和.bin(存储模型权重参数),接着由推理引擎即inference engine读取执行,使得推论能够执行在不同的装置上(CPU、GPU、VPU等)。这样使用者就可以利用inference engineAPI 调用啦。

你可能感兴趣的:(OpenVINO学习笔记,openvino,计算机视觉,深度学习)