基于YOLOv8深度学习的生活垃圾分类目标检测系统【python源码+Pyqt5界面+数据集+训练代码】目标检测

《博主简介》

小伙伴们好,我是阿旭。专注于人工智能、AIGC、python、计算机视觉相关分享研究。
更多学习资源,可关注公-仲-hao:【阿旭算法与机器学习】,共同学习交流~
感谢小伙伴们点赞、关注!

《------往期经典推荐------》

一、AI应用软件开发实战专栏【链接】

项目名称 项目名称
1.【人脸识别与管理系统开发】 2.【车牌识别与自动收费管理系统开发】
3.【手势识别系统开发】 4.【人脸面部活体检测系统开发】
5.【图片风格快速迁移软件开发】 6.【人脸表表情识别系统】
7.【YOLOv8多目标识别与自动标注软件开发】 8.【基于YOLOv8深度学习的行人跌倒检测系统】
9.【基于YOLOv8深度学习的PCB板缺陷检测系统】

二、机器学习实战专栏【链接】,已更新31期,欢迎关注,持续更新中~~
三、深度学习【Pytorch】专栏【链接】

《------正文------》

基本功能演示

摘要:生活垃圾检测在当今社会具有重要的意义。通过对生活垃圾进行准确识别和分类,可以提高垃圾处理的效率,减少环境污染,促进资源的循环利用。本文基于YOLOv8深度学习框架训练一个进行生活垃圾目标检测的模型,开发了一款生活垃圾检测系统,可检查常见的4类生活垃圾。并结合pythonPyQT5实现了UI界面,更方便进行功能的展示。该软件支持图片视频以及摄像头进行生活垃圾目标检测,并保存检测结果;。本文提供了完整的Python代码和使用教程,给感兴趣的小伙伴参考学习,完整的代码资源文件获取方式见文末

文章目录

  • 基本功能演示
  • 前言
  • 一、软件核心功能介绍及效果演示
    • 软件主要功能
    • (1)图片检测演示
    • (2)视频检测演示
    • (3)摄像头检测演示
    • (4)保存图片与视频检测结果
  • 二、模型的训练、评估与推理
    • 1.YOLOv8的基本原理
    • 2. 数据集准备与训练
    • 3. 训练结果评估
    • 4. 检测结果识别
  • 【获取方式】
  • 结束语

点击跳转至文末《完整相关文件及源码》获取


前言

生活垃圾检测在当今社会具有重要的意义。随着人口的增长和生活水平的提高,生活垃圾的产生量逐年增加,给环境带来了严重的压力。垃圾分类和处理是解决这一问题的有效途径,而生活垃圾检测则是实现垃圾分类的基础。通过对生活垃圾进行准确识别和分类,可以提高垃圾处理的效率,减少环境污染,促进资源的循环利用。

生活垃圾检测的应用场景非常广泛,主要包括以下几个方面:
家庭场景:在家庭生活中,通过使用生活垃圾检测软件,可以帮助居民快速识别不同类型的垃圾,提高垃圾分类的准确性,为后续的垃圾处理提供便利。
社区场景:在社区层面,生活垃圾检测可以作为智能垃圾桶的辅助功能,帮助居民更好地进行垃圾分类。此外,还可以通过数据分析,了解社区内各类垃圾的产生情况,为垃圾处理设施的规划和建设提供依据。
城市管理场景:在城市管理层面,生活垃圾检测可以为政府部门提供实时、准确的垃圾数据,有助于优化垃圾收集、运输和处理流程,提高城市环境卫生水平。
教育宣传场景:生活垃圾检测软件可以作为一种教育工具,帮助公众了解垃圾分类的重要性和方法,提高环保意识,形成良好的垃圾分类习惯。

博主通过搜集关于生活垃圾的相关数据图片,根据YOLOv8的目标检测技术,基于python与Pyqt5开发了一款界面简洁的生活垃圾检测系统,可支持图片、视频以及摄像头检测,同时可以将图片或者视频检测结果进行保存

软件基本界面如下图所示:
基于YOLOv8深度学习的生活垃圾分类目标检测系统【python源码+Pyqt5界面+数据集+训练代码】目标检测_第1张图片

一、软件核心功能介绍及效果演示

软件主要功能

1.可以检测日常的生活垃圾,并且分为4种类别,分别是:'可回收垃圾','有害垃圾','厨余垃圾','其他垃圾';
2.支持图片、视频及摄像头进行检测,同时支持图片的批量检测
2. 界面可实时显示目标位置目标总数置信度用时等信息;
3. 支持图片或者视频检测结果保存

(1)图片检测演示

点击图片图标,选择需要检测的图片,或者点击文件夹图标,选择需要批量检测图片所在的文件夹,操作演示如下:
点击目标下拉框后,可以选定指定目标的结果信息进行显示。 点击保存按钮,会对视频检测结果进行保存,存储路径为:save_data目录下。
注:1.右侧目标位置默认显示置信度最大一个目标位置。所有检测结果均在左下方表格中显示。
单个图片检测操作如下:
基于YOLOv8深度学习的生活垃圾分类目标检测系统【python源码+Pyqt5界面+数据集+训练代码】目标检测_第2张图片

批量图片检测操作如下:

(2)视频检测演示

点击视频图标,打开选择需要检测的视频,就会自动显示检测结果。点击保存按钮,会对视频检测结果进行保存,存储路径为:save_data目录下。

(3)摄像头检测演示

点击摄像头图标,可以打开摄像头,可以实时进行检测,再次点击摄像头图标,可关闭摄像头。

(4)保存图片与视频检测结果

点击保存按钮后,会将当前选择的图片【含批量图片】或者视频的检测结果进行保存。检测的图片与视频结果会存储在save_data目录下。

基于YOLOv8深度学习的生活垃圾分类目标检测系统【python源码+Pyqt5界面+数据集+训练代码】目标检测_第3张图片

二、模型的训练、评估与推理

1.YOLOv8的基本原理

YOLOv8是一种前沿的目标检测技术,它基于先前YOLO版本在目标检测任务上的成功,进一步提升了性能和灵活性。主要的创新点包括一个新的骨干网络、一个新的 Ancher-Free 检测头和一个新的损失函数,可以在从 CPU 到 GPU 的各种硬件平台上运行
其主要网络结构如下:

2. 数据集准备与训练

通过网络上搜集关于跌倒的各类图片,并使用LabelMe标注工具对每张图片中的跌倒目标边框(Bounding Box)进行标注。一共包含2743张图片,其中训练集包含1920张图片验证集包含548张图片测试集包含275张图片,部分图像及标注如下图所示。

基于YOLOv8深度学习的生活垃圾分类目标检测系统【python源码+Pyqt5界面+数据集+训练代码】目标检测_第4张图片

图片数据的存放格式如下,在项目目录中新建datasets目录,同时将跌倒检测的图片分为训练集与验证集放入FallData目录下。
基于YOLOv8深度学习的生活垃圾分类目标检测系统【python源码+Pyqt5界面+数据集+训练代码】目标检测_第5张图片
同时我们需要新建一个data.yaml文件,用于存储训练数据的路径及模型需要进行检测的类别。YOLOv8在进行模型训练时,会读取该文件的信息,用于进行模型的训练与验证。data.yaml的具体内容如下:

train: E:\MyCVProgram\GarbageDetection\datasets\GarbageSorting\images\train  # train images (relative to 'path') 128 images
val: E:\MyCVProgram\GarbageDetection\datasets\GarbageSorting\images\val  # val images (relative to 'path') 128 images
test: E:\MyCVProgram\GarbageDetection\datasets\GarbageSorting\images\test # val images (optional)

# number of classes
nc: 4

# Classes
names: ['recyclable waste','hazardous waste','kitchen waste','other waste']

注:train与val后面表示需要训练图片的路径,建议直接写自己文件的绝对路径。
数据准备完成后,通过调用train.py文件进行模型训练,epochs参数用于调整训练的轮数,batch参数用于调整训练的批次大小【根据内存大小调整,最小为1】,代码如下:

# 加载模型
model = YOLO("yolov8n.pt")  # 加载预训练模型
# Use the model
if __name__ == '__main__':
    # Use the model
    results = model.train(data='datasets/GarbageSorting/data.yaml', epochs=250, batch=4)  # 训练模型
    # 将模型转为onnx格式
    # success = model.export(format='onnx')

3. 训练结果评估

在深度学习中,我们通常用损失函数下降的曲线来观察模型训练的情况。YOLOv8在训练时主要包含三个方面的损失:定位损失(box_loss)、分类损失(cls_loss)和动态特征损失(dfl_loss),在训练结束后,可以在runs/目录下找到训练过程及结果文件,如下所示:
基于YOLOv8深度学习的生活垃圾分类目标检测系统【python源码+Pyqt5界面+数据集+训练代码】目标检测_第6张图片

各损失函数作用说明:
定位损失box_loss:预测框与标定框之间的误差(GIoU),越小定位得越准;
分类损失cls_loss:计算锚框与对应的标定分类是否正确,越小分类得越准;
动态特征损失(dfl_loss):DFLLoss是一种用于回归预测框与目标框之间距离的损失函数。在计算损失时,目标框需要缩放到特征图尺度,即除以相应的stride,并与预测的边界框计算Ciou Loss,同时与预测的anchors中心点到各边的距离计算回归DFLLoss。这个过程是YOLOv8训练流程中的一部分,通过计算DFLLoss可以更准确地调整预测框的位置,提高目标检测的准确性。
本文训练结果如下:
基于YOLOv8深度学习的生活垃圾分类目标检测系统【python源码+Pyqt5界面+数据集+训练代码】目标检测_第7张图片

我们通常用PR曲线来体现精确率和召回率的关系,本文训练结果的PR曲线如下。mAP表示Precision和Recall作为两轴作图后围成的面积,m表示平均,@后面的数表示判定iou为正负样本的阈值。[email protected]:表示阈值大于0.5的平均mAP,可以看到本文模型的4种分类的[email protected]都达到了0.84以上,平均值为0.876,结果还是很不错的。
基于YOLOv8深度学习的生活垃圾分类目标检测系统【python源码+Pyqt5界面+数据集+训练代码】目标检测_第8张图片

4. 检测结果识别

模型训练完成后,我们可以得到一个最佳的训练结果模型best.pt文件,在runs/trian/weights目录下。我们可以使用该文件进行后续的推理检测。
图片检测代码如下:

# 所需加载的模型目录
path = 'models/best.pt'
# 需要检测的图片地址
img_path = "TestFiles/fimg_217.jpg"

# 加载预训练模型
# conf	0.25	object confidence threshold for detection
# iou	0.7	intersection over union (IoU) threshold for NMS
model = YOLO(path, task='detect')
# model = YOLO(path, task='detect',conf=0.5)


# 检测图片
results = model(img_path)
res = results[0].plot()
cv2.imshow("YOLOv8 Detection", res)
cv2.waitKey(0)

执行上述代码后,会将执行的结果直接标注在图片上,结果如下:
基于YOLOv8深度学习的生活垃圾分类目标检测系统【python源码+Pyqt5界面+数据集+训练代码】目标检测_第9张图片

以上便是关于此款生活垃圾分类目标检测系统的原理与代码介绍。基于此模型,博主用pythonPyqt5开发了一个带界面的软件系统,即文中第二部分的演示内容,能够很好的支持图片、视频及摄像头进行检测,同时支持检测结果的保存

关于该系统涉及到的完整源码、UI界面代码、数据集、训练代码、测试图片视频等相关文件,均已打包上传,感兴趣的小伙伴可以通过下载链接自行获取。


【获取方式】

关注下方名片G-Z-H:【阿旭算法与机器学习】,回复【软件】即可获取下载方式

本文涉及到的完整全部程序文件:包括python源码、数据集、训练代码、UI文件、测试图片视频等(见下图),获取方式见文末:
基于YOLOv8深度学习的生活垃圾分类目标检测系统【python源码+Pyqt5界面+数据集+训练代码】目标检测_第10张图片

注意:该代码基于Python3.9开发,运行界面的主程序为MainProgram.py,其他测试脚本说明见上图。为确保程序顺利运行,请按照程序运行说明文档txt配置软件运行所需环境。

关注下方名片GZH:【阿旭算法与机器学习】,回复【软件】即可获取下载方式


结束语

以上便是博主开发的基于YOLOv8深度学习的生活垃圾分类目标检测系统的全部内容,由于博主能力有限,难免有疏漏之处,希望小伙伴能批评指正。
关于本篇文章大家有任何建议或意见,欢迎在评论区留言交流!

觉得不错的小伙伴,感谢点赞、关注加收藏哦!

你可能感兴趣的:(AI应用软件开发实战,深度学习实战,计算机视觉,YOLO,深度学习,yolov8,目标检测,垃圾分类)