基于ncnn的深度学习算法优化(一)

实验环境:Ubuntu14.04+cmake+protobuf(可选,protobuf仅用于编译caffetoncnn转换工具,若无需求可不安装)
一、下载ncnn代码并编译

git clone https://github.com/Tencent/ncnn.git

ncnn是为手机端即(Android、IOS)等ARM处理器进行了良心级NEON优化,速度提升明显。


1.1 编译x86架构的ncnn

cd ncnn
mkdir build_x86
cd build_x86
cmake ..

此时,需观察一下是否安装有protobuf,在cmake生成日志中可看到。如下图:
基于ncnn的深度学习算法优化(一)_第1张图片
若没有,或者不需要使用protobuf可修改ncnn根目录下CMakeLists.txt配置文件,仅进行ncnn库编译。配置文件如下图所示:
基于ncnn的深度学习算法优化(一)_第2张图片
之后,直接make即可编译完成。执行make install即可在install文件夹下得到x86架构的ncnn静态库和头文件。
但ncnn在x86架构下速度提升不明显,所以我们真正想要的是在arm下的ncnn库文件,下面我就介绍一下,我的一些修改过程。


1.2 Arm下编译ncnn
首先,在ncnn根目录下创建一个新的build文件夹。

mkdir build_arm

修改ncnn根目录下CMakeLists.txt,在cmake_minimum_required(VERSION 2.8.10)下面添加以下四条命令set(CMAKE_C_COMPILER arm-linux-gnueabihf-gcc) set(CMAKE_CXX_COMPILER arm-linux-gnueabihf-g++) add_definitions(-D__ARM_NEON) add_definitions("-mfpu=neon")
基于ncnn的深度学习算法优化(一)_第3张图片
然后,进入src文件夹下,修改该文件夹下的CMakeLists.txt文件。删除如下图所示代码:
基于ncnn的深度学习算法优化(一)_第4张图片
最后,进入buidl_arm文件夹下进行
cmake ..
make
make install

即可。至此,编译ncnn已经完成,下面附上两张测试效果图,硬件平台都为orangepi win plus,模型一致,测试图片一致,测试时间为循环1000次,取平均时间。
第一张为未使用ncnn优化的效果图,平均时间139.574ms;第二张为使用ncnn优化的效果图,平均时间35.198ms。
基于ncnn的深度学习算法优化(一)_第5张图片
这里写图片描述

你可能感兴趣的:(C++)