YOLOV4&YOLOV5学习笔记

YOLOV4&YOLOV5学习笔记

YOLOV4&YOLOV5学习笔记_第1张图片
YOLOV4&YOLOV5学习笔记_第2张图片
YOLOV4&YOLOV5学习笔记_第3张图片

YOLOV4&YOLOV5学习笔记_第4张图片

标签平滑处理来解决类别之间没有关联的问题。
1.
YOLOV4&YOLOV5学习笔记_第5张图片
2.
YOLOV4&YOLOV5学习笔记_第6张图片
3.
spp一堆池化的组合
4.
YOLOV4&YOLOV5学习笔记_第7张图片
5.
特征融合的方法

YOLOV4&YOLOV5学习笔记_第8张图片
6.
自对抗训练就是自监督训练
YOLOV4&YOLOV5学习笔记_第9张图片

YOLOV4&YOLOV5学习笔记_第10张图片

YOLOV4&YOLOV5学习笔记_第11张图片
9.
YOLOV4&YOLOV5学习笔记_第12张图片

第一个改进,将主干网络中的激活函数改了
YOLOV4&YOLOV5学习笔记_第13张图片
11.

新加了spp块,增加感受视野,
YOLOV4&YOLOV5学习笔记_第14张图片

YOLOV4&YOLOV5学习笔记_第15张图片

YOLOV4&YOLOV5学习笔记_第16张图片

YOLOV4&YOLOV5学习笔记_第17张图片
14.
yolov3没有告诉候选框应该往哪个方向上去回归
YOLOV4&YOLOV5学习笔记_第18张图片
15.
状态3的效果比状态2更好,状态3移动更简单,状态2移动更复杂
YOLOV4&YOLOV5学习笔记_第19张图片
16.

YOLOV4&YOLOV5学习笔记_第20张图片
17.

GIOU_loss不能衡量下图这种情况

YOLOV4&YOLOV5学习笔记_第21张图片
18.
YOLOV4&YOLOV5学习笔记_第22张图片

YOLOV4&YOLOV5学习笔记_第23张图片

YOLOV4&YOLOV5学习笔记_第24张图片

YOLOV4&YOLOV5学习笔记_第25张图片
20.
在NMS时不使用CIOU_LOSS是因为,使用CIOU_LOSS需要使用目标框的长和宽,但是在做NMS时,已经是预测阶段了,在预测阶段根本没有目标框。
YOLOV4&YOLOV5学习笔记_第26张图片
21.
数据增强
YOLOV4&YOLOV5学习笔记_第27张图片
22.
作者使用dropout是为了让中间层的神经网络也能获得想cutout的作用和效果。因为如果你只是使用cutout’时这只是对输入数据进行了数据增强,但是神经网络是很聪明的,如果在神经网络中不使用dropout,那么在神经网络中就不能获得cutout’带来的好处,因为神经网络会将cutout的图片,经过神经网络后,恢复成完整图片,所以这里在神经网络中使用了dropout。
YOLOV4&YOLOV5学习笔记_第28张图片
23.
cutout缺点:遮挡的部分是连成的一个整体,而且使规则的,而且这个规则的遮挡对于卷积来说是无效的,因为对于浅层的卷积接收到的数据确实是不完整的,但是对于中间层和最后的卷积,图片经过前面的处理,到达中间层和最后层的图片就已经是完整的了。
24.
普通的dropout是随机的对于目标区域而言遮挡效果不是很好,遮挡的区域太少,下图中的dropout就好像给图片加了一些噪音,所以对它进行了改造,使用的是dropblock,遮挡的区域更大。这样的改变即增大了遮挡的面积,也保证了核心的目标区域不至于全部被遮挡完全。
YOLOV4&YOLOV5学习笔记_第29张图片

这儿应该是直接的切片操作,和残差结构的恒等映射是一样的
YOLOV4&YOLOV5学习笔记_第30张图片
26.

YOLOV4&YOLOV5学习笔记_第31张图片

网络的深度和宽度会不一样就形成了,s,m,l,x,网络的深度和宽度越来越大。
YOLOV4&YOLOV5学习笔记_第32张图片
28.

YOLOV4&YOLOV5学习笔记_第33张图片
29.
YOLOV4&YOLOV5学习笔记_第34张图片
30.

YOLOV4&YOLOV5学习笔记_第35张图片
31.
YOLOV4&YOLOV5学习笔记_第36张图片
YOLOV4&YOLOV5学习笔记_第37张图片

YOLOV4&YOLOV5学习笔记_第38张图片

YOLOV4&YOLOV5学习笔记_第39张图片

你可能感兴趣的:(Python,深度学习之美,人工智能,学习,深度学习)