深度模型部署

深度模型部署

  • **先看我的测试结果是这样的**
  • 一 intel 系列
    • openvino
    • opencv
  • 二 nvidia dGPU / jetson
    • tensorRT
      • 编译安装
      • demo测试
      • 量化训练
    • deepstream / jetson
    • jetson-inference / jetson
  • 三 ARM-cpu
    • paddleLite / raspberry pi 3b+
    • MNN
    • NCNN
    • TNN
    • tengine
  • 四 NPU
    • rk1808s2 --- rknn 框架
    • 华为 NPU
  • 五 FPGA
    • pynq-z2
  • 六 DSP
  • 七 MCU
  • 八 ros

先看我的测试结果是这样的

模型测试结果

一 intel 系列

  • intel x86 cpu
  • intel-fpga

openvino

模型加速效果很好

  • 编译安装
  • 测试模型

opencv

  • 编译安装
  • 测试模型

二 nvidia dGPU / jetson

tensorRT

编译安装

demo测试

  • yolo
  • ssd

量化训练

deepstream / jetson

jetson-inference / jetson


三 ARM-cpu

paddleLite / raspberry pi 3b+

量化训练
Paddle Quantum
kernel优化: 指令集、操作熔合、算法改写
框架执行: 简化 Op 和 Kernel 的功能,使得执行期的框架开销极低

  • paddlelite架构
  • paddleLite手册
  • X2paddle
  • 合并x2paddle和opt的一键脚本

MNN

  • 编译安装
  • 测试模型

NCNN

  • 编译安装
  • 测试模型

TNN

  • 编译安装
  • 测试模型

tengine

  • 编译安装
  • 测试模型

四 NPU

rk1808s2 — rknn 框架

华为 NPU

五 FPGA

pynq-z2


六 DSP


七 MCU


八 ros

你可能感兴趣的:(目标检测,模型部署,计算机视觉,深度学习)