【嵌入式AI】全志 R329 板子跑 mobilenetv2

  本教程详细介绍了在全志 R329 板子上跑 mobilenetv2 的流程,能达到 20 fps。

  关于周易 AIPU 的模型的交叉编译方法可以参考《【嵌入式AI】周易 AIPU 算法部署仿真测试》、全志 R329 板子镜像烧录方法可以参考《【嵌入式AI】全志 R329 开箱与开发环境搭建》,这篇就默认板子已经配置好了 runtime 环境。

文章目录

    • 1、opencv 交叉编译
    • 2、板子跑 opencv 抓图
      • 2.1 工程目录结构
      • 2.2 CMakeLists.txt
      • 2.3 main.cpp
      • 2.4 aarch64-linux-gnu.toolchain.cmake
      • 2.5 编译
    • 3、板子跑 mobilenetv2 检测
      • 3.1 转换 mobilenetv2 模型
      • 3.2 zhouyi_cam 交叉编译
      • 3.3 mobilenetv2 跑起来

1、opencv 交叉编译

  R329 是 aarch64 的,所以用到的 opencv 也需要交叉编译,opencv aarch64 的交叉编译方法可以参考我的这篇 《【经验分享】华为atlas500系列aarch64交叉编译opencv》。完了把头和库拷到板子上,板子上的文件传输可以采用 scpscp 的使用方法类似这样:

# 板子上执行
# 从服务器拷贝文件到板子 
scp username@ip:/path/to/your/file /path/to/your/R329 

# 从服务器拷贝文件夹到板子上
scp -r username@ip:/path/to/your/dir /path/to/your/R329

2、板子跑 opencv 抓图

  写这个模块,主要目的是用简单的 opencv 工程验证下板子的摄像头是否正常。

2.1 工程目录结构

  搭建 cmake工程,结构如下:

├── build 
├── CMakeLists.txt 
├── main.cpp 
└── toolchains    
	└── aarch64-linux-gnu.toolchain.cmake

2.2 CMakeLists.txt

cmake_minimum_required(VERSION 3.10.2) 
project(OpencvTest) 

set(OpenCV_DIR /your/opencv/path) 
find_package(OpenCV REQUIRED) 
include_directories(${OpenCV_INCLUDE_DIRS}) 

macro(add_example name)   
	add_executable(${name} ${name}.cpp)    
		target_link_libraries(${name} ${OpenCV_LIBS})  
endmacro() 

add_example(main)

2.3 main.cpp

#include "opencv2/opencv.hpp"
#include 

int main(void){
     
    cv::Mat frame;
    cv::VideoCapture cap;
    cap.open("/dev/video0");

    if (!cap.isOpened())
    {
     
        fprintf(stderr, "Failed to open");
        return -1;
    }
    
    cap >> frame;
    cv::imwrite("test.png", frame);
    
    return 0;
}

2.4 aarch64-linux-gnu.toolchain.cmake

set(CMAKE_SYSTEM_NAME Linux)
set(CMAKE_SYSTEM_PROCESSOR aarch64)

set(CMAKE_C_COMPILER "aarch64-linux-gnu-gcc")
set(CMAKE_CXX_COMPILER "aarch64-linux-gnu-g++")

set(CMAKE_FIND_ROOT_PATH_MODE_PROGRAM NEVER)
set(CMAKE_FIND_ROOT_PATH_MODE_LIBRARY ONLY)
set(CMAKE_FIND_ROOT_PATH_MODE_INCLUDE ONLY)

set(CMAKE_C_FLAGS "-march=armv8-a")
set(CMAKE_CXX_FLAGS "-march=armv8-a")

# cache flags
set(CMAKE_C_FLAGS "${CMAKE_C_FLAGS}" CACHE STRING "c flags")
set(CMAKE_CXX_FLAGS "${CMAKE_CXX_FLAGS}" CACHE STRING "c++ flags")

2.5 编译

mkdir build
cd build

cmake -DCMAKE_TOOLCHAIN_FILE=../toochains/aarch64-linux-gnu.toolchain.cmake -DCMAKE_PREFIX_PATH=/your/opencv/lib .. 

make

  完了把编译生成的可执行程序用 scp 拷贝到 板子上

  在开发板上运行程序:

cd root 

# 执行 
./main

  正常会生成一张 test.png 的图片,这是你板子摄像头现拍的图像。


3、板子跑 mobilenetv2 检测

3.1 转换 mobilenetv2 模型

  此步骤是为了将深度学习训练框架(前端)产生的模型(支持 tensorflow pbtflitecaffemodelonnx),选择还是挺多的,我这里用的是 tflite 来转换板子可支持运行的模型格式。

  转换方法还是可参考这篇 《【嵌入式AI】周易 AIPU 算法部署仿真测试》,这篇里写的前端是来自 tensorflow 的,相比 from_tensorflow,from_tflite 的过程少了模型 exportfreeze 的过程,所以相对简单一些。

  模型转换的关键是 model_build.cfg 配置文件,这里给出 modilenetv2mobilenetv2_build.config

[Common]
mode = build

[Parser]
model_type = tflite
model_name = mobilenet_v2
detection_postprocess = 
model_domain = image_classification
input_model = ./model/model.tflite
input = input
input_shape = [1, 224, 224, 3]
output = MobilenetV2/Predictions/Softmax
output_dir = ./

[AutoQuantizationTool]
quantize_method = SYMMETRIC
quant_precision = int8
ops_per_channel = DepthwiseConv
reverse_rgb = False
label_id_offset = 
dataset_name = 
detection_postprocess = 
anchor_generator = 
log = False
calibration_data = ./dataset/dataset.npy
calibration_label = ./dataset/label.npy

[GBuilder]
outputs = aipu.bin
target = Z1_0701

  然后执行:

aipubuild config/mobilenetv2_build.config

  正常情况会生成 aipu.bin 模型文件,这个文件是后面板子上执行的时候调用的。多说一句,个人理解这个 aipu.bin 里面应该是记录了模型的推理执行 flow,就像 tensorrtengine 一样,不知道理解是否有问题。

3.2 zhouyi_cam 交叉编译

  交叉编译 zhouyi_cam,工程代码在这里 ,工具链在这里,提取码都是:6666

  把 工程 和 工具链 下载下来后,交叉编译很简单。

  需要改 CMakeList.txt 里的几个地方:

set(CMAKE_COMPILER "/path/to/your/toolchain/bin/aarch64-openwrt-linux-gcc") 
set(CMAKE_CXX_COMPILER "/path/to/your/toolchain/bin/aarch64-openwrt-linux-g++") 

set(ROOTS_root /path/to/your/rootfs)

  开始编译吧

cd zhouyi_cam 

mkdir build 

cd build 

cmake .. 

make

  大功告成后会生成 zhouyi_demo,将其和 3.1 生成的 aipu.bin 拷贝到板子上。

3.3 mobilenetv2 跑起来

  目光转到板子上。

cd /root/maix_sense 

insmod aipu.ko 

## 让我们跑起来吧 
./zhouyi_demo ./aipu.bin 1

【嵌入式AI】全志 R329 板子跑 mobilenetv2_第1张图片

  看看效果~ 能看清吗,差不多可以跑 20 帧,接近实时了~
【嵌入式AI】全志 R329 板子跑 mobilenetv2_第2张图片


  收工了~



扫描下方二维码即可关注我的微信公众号【极智视界】,获取更多实践项目资源和读书分享,让我们用极致+极客的心态来迎接AI !
在这里插入图片描述

你可能感兴趣的:(嵌入式AI,嵌入式,人工智能,深度学习)