【目标检测】K-means和K-means++计算anchors结果比较(附完整代码,全网最详细的手把手教程)

写在前面:
首先感谢兄弟们的订阅,让我有创作的动力,在创作过程我会尽最大努力,保证作品的质量,如果有问题,可以私信我,让我们携手共进,共创辉煌。

一、介绍

YOLO系列目标检测算法中基于anchor的模型还是比较多的,例如YOLOv3、YOLOv4、YOLOv5等,我们可以随机初始化anchor,也可以通过聚类算法获取anchor,常用的聚类算法有K-means和K-means++,这个2个聚类算法的原理也很简单。下面我们通过代码讲解如何使用K-means和K-means++聚类算法,并对结果进行比较。

二、数据集

我们使用的是VOC格式数据集:
【目标检测】K-means和K-means++计算anchors结果比较(附完整代码,全网最详细的手把手教程)_第1张图片

VOCdevkit
├── VOC2007
    ├── JPEGImages
    │   ├── 1.jpg
    │   └── 2.jpg
    ├── Annotations
        ├── 1.xml
        └── 2.xml

VOCdevkit文件夹下面包含VOC2007,VOC2007下面有JPEGImages和Annotations两个文件夹,Annotations文件夹下存放标签文件,里面包含位置信息。

xml文件标签信息如下:

你可能感兴趣的:(深度学习--图像分类,目标检测,kmeans,聚类)