OpenVino端模型部署

直接去Intel官网下载即可:https://www.intel.com/content/www/us/en/developer/tools/openvino-toolkit/download.htmlOpenVino端模型部署_第1张图片

 尽量下载最新版本,不过2022.2似乎不能在线安装,需要解压,我这里使用2022.1.

下载结束,安装一路点击同意即可。

安装结束,配置环境变量:

OpenVino端模型部署_第2张图片

我这里只添加了Release。

备注:不同版本的OpenVino文件夹形式不同。

2022版本需要的文件均在RunTIme文件夹中,2021版本均在\deployment_tools\inference_engine目录下,2022版本不自带opencv库。

VS配置,打开属性-配置-VC++目录:添加包含目录和库目录

OpenVino端模型部署_第3张图片

 OpenVino端模型部署_第4张图片

 最后,添加dll文件,在连接器中添加:

C:\Program Files (x86)\Intel\openvino_2022.1.0.643\runtime\lib\intel64\Release\*.lib

备注:2021版本不支持ONNX模型输入,2022版本支持。

但不知道为何,YOLOv5.6版本输出的Openvino在2021版本中不能使用,会报错;2021版本使用老版本的YOLOv5模型可以实现GPU和CPU端推理,但2022版本不能实现GPU端推理。

2022版本使用xml文件推理,一致性不通过,必须使用onnx版本模型才可以。

问题出在哪里,不是很清楚。

可明确:2022版本可以推理onnx。

 

你可能感兴趣的:(openvino,人工智能)