【OpenVINO】部署深度学习模型的流程

【OpenVINO】部署深度学习模型的流程_第1张图片

1. 首先,得有一个由OpenVINO支持的深度学习框架训练好的模型。因为这里只是负责推理而不负责训练。

支持的框架有:

【OpenVINO】部署深度学习模型的流程_第2张图片

2. 为使用的训练框架配置Model Optimizer,参考链接:【OpenVINO】Win 10安装配置OpenVINO指南的第四步。

3. 生成 优化的Intermediate Representation(IR)文件,参考链接:【OpenVINO】YOLOv3的tensorflow pb模型转换成IR格式数据(.xml和.bin)。

4. 使用Inference Engine测试IR格式的模型,参考链接:【OpenVINO】Intel计算棒2代进行YOLOv3推理。

5. 在目标环境集成Inference Engine到自己的应用中。链接待添加。

你可能感兴趣的:(深度学习,OpenVINO)