paddle 55 使用Paddle Inference部署嵌入nms的PPYoloe模型(端到端fps达到52.63)
PaddleInference是飞桨的原生推理库,提供服务器端的高性能推理能力。由于PaddleInference能力直接基于飞桨的训练算子,因此它支持飞桨训练出的所有模型的推理。paddle平台训练出的模型转换为静态图时可以选用PaddleInference的框架进行推理,博主以前都是将静态图转换为onnx模型再进行部署。然而在转换含nms的ppyoloe模式,转换失败了,故此研究PaddleI