openvino vsiusl studio环境搭建


openvino_tools visual studio 配置

安装1---> 
anaconda3 2 Cmake 3visual studio 4openvino_toolkit软件安装完成之后

openvino_toolkit所有都安装在C:\Intel目录下
python3.6.5/python3.7
VS2015/VS2017
(1)
C:\Users\Administrator>cd C:\Intel\openvino_2019.1.148\bin
C:\Intel\openvino_2019.1.148\bin> setupvars.bat
(2)
C:\Intel\openvino_2019.1.148\bin> cd C:\Intel\openvino_2019.1.148\deployment_tools\demo
C:\Intel\openvino_2019.1.148\deployment_tools\demo> demo_security_barrier_camera.bat
最后运行结果为成功
###############|| Demo completed successfully ||###############

C:\Intel\openvino_2019.1.148\deployment_tools\demo>
配置开发环境2--->
1 创建新项目-> 空项目->项目名称(openvino_test 将解决方案和项目放在同一目录中)
2 解决方案资源管理器->openvino_test的源文件->右键(添加,新建项)->(C++文件,名字main.cpp)
3 生成和调试下面选择Debug和x64
4 视图->其它窗口->属性管理器(最右边openvino_test->Debug|x64 ->Microsoft.Cpp.x64.user->右键属性)
5 VC++目录->
  5.1包含目录
    C:\Intel\openvino_2019.1.148\deployment_tools\inference_engine\src\extension
    C:\Intel\openvino_2019.1.148\deployment_tools\inference_engine\samples\common\format_reader
    C:\Intel\openvino_2019.1.148\deployment_tools\inference_engine\include
    C:\Intel\openvino_2019.1.148\opencv\include
    C:\Intel\openvino_2019.1.148\opencv\include\opencv2

    
  5.2库目录
    C:\Intel\openvino_2019.1.148\opencv\lib
    C:\Intel\openvino_2019.1.148\deployment_tools\inference_engine\lib\intel64\Debug
    C:\Users\Administrator\Documents\Intel\OpenVINO\inference_engine_samples_build\intel64\Debug
    还需要一个CPU扩展,具体做法如下
    C:\Users\Administrator> cd C:\Intel\openvino_2019.1.148\deployment_tools\inference_engine\samples
    C:\Intel\openvino_2019.1.148\deployment_tools\inference_engine\samples> build_samples_msvc.bat
    会把build的结果放入到C:\Users\Administrator\Documents\Intel\OpenVINO\inference_engine_samples_build中
    生成一个Samples.sln双击用Visual Studio 打开
    之后再解决方案资源管理器中的(解决方案Samples 点击右键->生成解决方案)
    生成的文件C:\Users\Administrator\Documents\Intel\OpenVINO\inference_engine_samples_build\intel64\Debug中
    有个cpu_extension.lib非常重要(做了半天就是为了cpu_extension.lib这个文件)
    
  5.3链接器->输入->附加依赖项中添加
    opencv_world410d.lib
    opencv_pvl410d.lib
    inference_engined.lib
    cpu_extension.lib
    format_reader.lib
    
6配置系统环境变量
我的电脑右键->高级系统设置->环境变量->系统变量->PATH
C:\Intel\openvino\opencv\bin
C:\Intel\openvino_2019.1.148\deployment_tools\inference_engine\bin\intel64\Debug
C:\Intel\openvino_2019.1.148\deployment_tools\inference_engine\bin\intel64\Release
C:\Users\Administrator\Documents\Intel\OpenVINO\inference_engine_samples_build\intel64\Debug
C:\Users\Administrator\Documents\Intel\OpenVINO\inference_engine_samples_build\intel64\Release

7重新启动Visual Studio2019


二OpenCV DNN模型支持
生成graph.pbtxt文件参考网址https://mp.weixin.qq.com/s/YZeCNjlVKTU6lOVrmYLDCQ?ADUIN=327641955&ADSESSION=1560667514&ADTAG=CLIENT.QQ.5597_.0&ADPUBNO=26863#userconsent#

git clone https://github.com/opencv/opencv.git (windows下载的为opencv-4.0.0.zip)
C:\>d:
D:\opencv-4.0.0\samples\dnn>cd D:\opencv-4.0.0\samples\dnn
D:\opencv-4.0.0\samples\dnn> python tf_text_graph_ssd.py --input D:\tensorflow\ssd_mobilenet_v2_coco_2018_03_29\frozen_inference_graph.pb --output D:\tensorflow\ssd_mobilenet_v2_coco_2018_03_29\graph.pbtxt --config D:\tensorflow\ssd_mobilenet_v2_coco_2018_03_29\pipeline.config

模型下载
https://download.tensorflow.org/models/object_detection/ssd_mobilenet_v2_coco_2018_03_29.tar.gz
1.1 OpenCV中支持Tensorflow深度神经网络IE推断支持需要如下几个配置项目
C:\Intel\openvino\opencv\bin
C:\Intel\openvino_2019.1.148\deployment_tools\inference_engine\bin\intel64\Debug
C:\Intel\openvino_2019.1.148\deployment_tools\inference_engine\bin\intel64\Release
C:\Users\Administrator\Documents\Intel\OpenVINO\inference_engine_samples_build\intel64\Debug
1.2特点
  OpenCV中支持深度神经网络推断的模块
  发布于OpenCV3.3
OpenCV4的核心模块之一
支持图形分割,对象检测,图像分割,风格转换, 对象识别等
支持tensorflow, Caffe,torch,darknet等框架(用tensorflow训练好之后,到处模块/二进制,然后用OpenCV进行加速)

1.3OpenCV DNN加速
1.4在解决方案openvino_test上,右击->添加->新建项目->空项目->Window32控制台应用程序名字openvino_001
1.5在openvino_001中的源文件, 右击->添加->新项目->C++文件(openvino_001.cpp)


第五课
pip install test-generator==0.1.1
pip install defusedxml==0.5.0
C:\Users\Administrator>cd C:\Intel\openvino_2019.1.148\deployment_tools\model_optimizer

C:\Users\Administrator> python mo_tf.py --input_model D:\tensorflow\ssd_mobilenet_v2_coco_2018_03_29\frozen_inference_graph.pb --tensorflow_use_custom_operations_config extensions\front\tf\ssd_v2_support.json --tensorflow_object_detection_api_pipeline_config D:\tensorflow\ssd_mobilenet_v2_coco_2018_03_29\pipeline.config --output="detection_boxes,detection_scores,num_detections" --data_type FP32
C:\Intel\openvino_2019.1.148\deployment_tools\model_optimizer中拷贝frozen_inference_graph.bin和frozen_inference_graph.xml到目录D:\projects\models


第六课(车辆与车牌)
模型的介绍
vehicle-license-plate-detection-barrier-0106 既检测车辆,又检测车牌
位置:C:\Intel\openvino_2019.1.148\deployment_tools\intel_models\vehicle-license-plate-detection-barrier-0106\description
上面没有模型,需要下载模型
C:\Intel\openvino_2019.1.148\deployment_tools\tools\model_downloader>python downloader.py --name vehicle-license-plate-detection-barrier-0106
###############|| Downloading topologies ||###############
========= Downloading C:\Intel\openvino_2019.1.148\deployment_tools\tools\model_downloader\Security\object_detection\barrier\0106\dldt\vehicle-license-plate-detection-barrier-0106.xml
... 100%, 95 KB, 203 KB/s, 0 seconds passed
========= Downloading C:\Intel\openvino_2019.1.148\deployment_tools\tools\model_downloader\Security\object_detection\barrier\0106\dldt\vehicle-license-plate-detection-barrier-0106.bin
... 100%, 2512 KB, 6701 KB/s, 0 seconds passed
###############|| Post processing ||###############
C:\Intel\openvino_2019.1.148\deployment_tools\tools\model_downloader>

下载的模型,会下载到路径:C:\Intel\openvino_2019.1.148\deployment_tools\tools\model_downloader\Security\object_detection\barrier\0106\dldt

vehicle-license-plate-detection-barrier-0106.bin和vehicle-license-plate-detection-barrier-0106.xml文件放入到目录
D:\projects\models\vehicle-license-plate-detection-barrier-0106\FP32中


基于BIT-Vehicle数据集

第七课程(使用openvino推断引擎的SDK inference推断)
加载网络 - InferenceEngine::CNNNetReader
操作网络信息 - InferenceEngine:CNNNetwork
加载支持的IE插件 - InferenceEngine::PluginDispatcher调度
设置输入与解析输出 - InferenceEngine::ExecutableNetwork
执行网络推断 - InferenceEngine::InferRequest


调用执行流程
1加载插件支持
2读取模型
3设置输入输出
4创建可执行网络
5创建推断
6同步/异步执行推断
7解析输出

代码书写完成,需要执行如下
执行菜单中->生成->重新生成解决方案
1 解决方案openvino_003->右键属性->C/C++->预处理器->
预处理器定义
_DEBUG
_CONSOLE
_CRT_SECURE_NO_WARNINGS
执行菜单中->生成->重新生成解决方案

你可能感兴趣的:(openvino vsiusl studio环境搭建)