深度学习笔记 8 特征尺寸、感受野、Map计算

目录

1. Feature Map尺寸计算

2. 感受野计算

3. 感受野大小对提取特征的影响

4. Map计算

4.1 IOU计算

4.2  TP TN FP FN

4.3 Precision和Recall

4.4 目标检测常用评价指标总结


1. Feature Map尺寸计算

注意在pytorch中stride、padding、dilation、kernelsize可以为int型或者tuple型;

dilation默认为1,也是可为tuple,通常使用dilation操作来代替pooling;反卷积,卷积操作的逆运算,目标检测上一般用于为了解决融合高低层信息,但尺度不一致的问题。

深度学习笔记 8 特征尺寸、感受野、Map计算_第1张图片

2. 感受野计算

感受野:卷积神经网络每一层输出的特征图(feature map)上的像素点在原始图像上映射的区域大小。

自顶向下的计算方法(Top-down)

普通卷积的感受野计算

对于普通卷积,假设感受野初始大小为1,对于每一层来说,该层的感受野与上一层有一种线性关系!其与每个layer的stride和kernelsize有关,与padding没有关系,感受野只是表示两者的映射关系,与原始图的大小无关。

深度学习笔记 8 特征尺寸、感受野、Map计算_第2张图片

深度学习笔记 8 特征尺寸、感受野、Map计算_第3张图片

含空洞卷积的感受野计算

深度学习笔记 8 特征尺寸、感受野、Map计算_第4张图片

3. 感受野大小对提取特征的影响

1.感受野大于要提取的特征区域(比如物体)

会忽略被检测的物体,导致物体成为背景,提取不到物体特征。也就是说对小物体的检测会差一点。

2.感受野小于要提取的特征区域(比如物体)

获得的局部信息过多,导致全局信息的丢失,影响识别率。

3. 网络深度越深,卷积的过程中会丢失信息,所以一般选取大的感受野来保证不丢失过多信息。 当然,对于一些小物体检测长几个可能效果不一定好。

不同大小的卷积核获得不同大小的信息,选取合适的感受野大小比较重要,或者考虑多尺度的感受野,可能会减少1和2这种弊端

空洞卷积主要有三个作用

扩大感受野。但需要明确一点,池化也可以扩大感受野,但空间分辨率降低了,相比之下,空洞卷积可以在扩大感受野的同时不丢失分辨率,且保持像素的相对空间位置不变。简单而言,空洞卷积可以同时控制感受野和分辨率。

获取多尺度上下文信息。当多个带有不同dilation rate的空洞卷积核叠加时,不同的感受野会带来多尺度信息,这对于分割任务是非常重要的。

可以降低计算量,不需要引入额外的参数。

4. Map计算

4.1 IOU计算

交并比是衡量目标检测框和真实框的重合程度,用来判断检测框是否为正样本的一个标准。通过与阈值比较来判断是正样本还是负样本。一般来讲,当预测框和真实框IOU>=0.5时,被认为是正样本。两个框的IOU就是用两个框的交集除以两个框的并集

 

本身是正样本还是负样本是通过IOU值与阈值比对来判定

4.2  TP TN FP FN


                                                              GroundTruth                 预测结果

TP(True Positives):   真的正样本  = 【正样本  被正确分为  正样本】

TN(True Negatives): 真的负样本  = 【负样本  被正确分为  负样本】

FP(False Positives):  假的正样本  = 【负样本  被错误分为  正样本】

FN(False Negatives):假的负样本  = 【正样本  被错误分为  负样本】
 

4.3 Precision和Recall

 预测正确的部分占预测结果的比例

预测正确的部分占GroundTruth 的比例 

 

举例: 

 深度学习笔记 8 特征尺寸、感受野、Map计算_第5张图片

 图中绿色的框是真实目标框红色的框是分类器的预测框

4.4 目标检测常用评价指标总结

你可能感兴趣的:(深度学习笔记(理论),深度学习,计算机视觉,人工智能)