需要配置好以下环境
Paddle-Inference win10平台C++源码编译
克隆源码
git clone https://github.com/PaddlePaddle/Paddle-Inference-Demo.git
由于源码里面有多个项目,编译测试使用以下项目
Paddle-Inference-Demo\c++\paddle_infer_demo
该项目对应预训练模型下载, 运行的时候需要用到
https://paddle-inference-dist.bj.bcebos.com/Paddle-Inference-Demo/yolov3_r34_float.tgz
解压后为model.pdmodel和model.pdiparams两个文件
Configure选择vs2019,x64。相关配置如下,使用tensorrt需手动添加TENSORRT_ROOT。
配置好点击Configure -> Generate -> Open Project启动VS 2019编译
进入VS后,将Debug配置改为Release。
自行从源码编译的链接库名字是paddle_fluid, 但是编译的时候用的是libpaddle_inference。所以需要复制一份改为libpaddle_inference。
编译成功后,右键yolov3_test项目,点击属性。点击调试,在调试输入以下指令。
# 分别输入模型和权重文件路径, 在第一节的时候提示需要下载的两个文件
--model_file .\model.pdmodel --params_file .\model.pdiparams