首先在电脑上需要配置好pytorch环境,和yolov8源码的下载
然后针对yolov8做自己的轻量化改进
下载 Android Studio 和应用工具 - Android 开发者 | Android Developers
自行配置AS环境和JDK
我参考了这个:Android Studio 开发环境快速搭建(超详细)_配置android 开发环境-CSDN博客
官网站:https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
打开系统环境
打开计算机的属性/高级设置/环境变量/,
配置JAVA_HOME:
变量名:JAVA_HOME
变量值:JDK安装目录(复制jdk的路径,也就是我们前面安装JDK时设置的路径)
具体见那个链接
注意安装的是cmake3.10版本。
手机安卓版本选择相应的安卓版本,我的是荣耀70,直接下载sdk,对应的是安卓14。
https://github.com/FeiGeChuanShu/ncnn-android-yolov8
将上面下载好的两个压缩包解压后放入该位置:ncnn-android-yolov8\app\src\main\jni\ 下
4.配置CMakeLists.txt文件
位置:ncnn-android-yolov8\app\src\main\jni\ ,
利用Android Studio打开CMakeLists.txt.,然后把下面的路径更改为自己下载的:
具体在Ultralytics/demo.py 代码里面也有体现
# 将模型导出为 ONNX 格式
from ultralytics import YOLO
model = YOLO("best.pt")
success = model.export(format="onnx", simplify=True, opset=12)
注意:
在安卓端使用demo项目在转换前需要对项目源码作出一些修改,修改具体见下面步骤。
待修改的内容在ncnn-android-yolov8-main/doc/中有显示,如使用检测任务则修改c2f.jpg和Detect.jpg两张图片上的内容。
也即在windows把ultralytics项目中的下列函数修改为:
文件路径:ultralytics/ultralytics/nn/modules/block.py
class C2f(nn.Module):
# ...
def forward(self, x):
# 全部替换为
x = self.cv1(x)
x = [x, x[:, self.c:, ...]]
x.extend(m(x[-1]) for m in self.m)
x.pop(1)
return self.cv2(torch.cat(x, 1))
文件路径:ultralytics/ultralytics/nn/modules/head.py
class Detect(nn.Module):
# ...
def forward(self, x):
"""Concatenates and returns predicted bounding boxes and class probabilities."""
shape = x[0].shape # BCHW
for i in range(self.nl):
x[i] = torch.cat((self.cv2[i](x[i]), self.cv3[i](x[i])), 1)
if self.training:
return x
elif self.dynamic or self.shape != shape:
self.anchors, self.strides = (x.transpose(0, 1) for x in make_anchors(x, self.stride, 0.5))
self.shape = shape
# 中间部分注释掉,return语句替换为
return torch.cat([xi.view(shape[0], self.no, -1) for xi in x], 2).permute(0, 2, 1)
!记得保留原本的代码,这两处修改仅在格式转换时进行,如果想要重新训练,需要使用原本的代码。修改完成再执行模型格式转换的代码。
得到的文件类型为onnx格式,还需进一步转换为ncnn格式。使用一键转换 Caffe, ONNX, TensorFlow 到 NCNN, MNN, Tengine 即可
转换后会得到两个文件,分别以bin和param做后缀。使用yolov8模型已不再需要对param文件修改。两个文件即最终集成到android端的模型文件,
放到\ncnn-android-yolov8-main\ncnn-android-yolov8\app\src\main\assets
demo项目解读:
yolo.cpp和yolo.h:负责加载模型,执行预测任务,返回数据结果。
ndkcamera.cpp和ndkcamera.h:负责摄像头相关以及实时绘制预测矩形框。
yolov8ncnn.cpp:JNI方法直接对应的C++文件,负责整合上述两部分。
目前修改的部分均在yolo.cpp和yolov8ncnn.cpp两个文件中,可以以实时摄像的方式使用模型。
在ncnn-android-yolov8\app\src\main\jni\ 下,修改为你自己数据集的类别数量
修改调用的模型名格式 :
修改节点名称:
先查看自己onnx的节点名称,网站查看: https://netron.app/
修改文件,对应上图中的输入和输出的名称
修改为自己的类别名称:
增加item,添加移动端模型选择文件:
bestXXX是你训练出来的模型的名称
对应修改如下:
上图红框中的名称要和你导出来的bin和param中的文件名称对应 ,有多个模型,可以多放几个
在build.gradle 修改依赖的gradle插件版本为7.2.0
在ncnn-android-yolov8-main\ncnn-android-yolov8\gradle\wrapper\gradle-wrapper.properties中:
修改使用的gradle版本为7.4-all版本。
重新sync项目
手机打开->开发者模式,开启USB调试权限,手机和电脑用USB连接,允许调试
运行Android Studio项目到手机上
另外app默认先打开的是前置摄像头,通过分析代码,可以知道,将MainActivity.java的40的facing的初始值从0改成1可以让app默认先打开后置摄像头。