2020-12-30

目录

特征图与候选区域建立起联系
不像faster-r-cnn一个候选框会对应好多个正的候选区域,那样预测出来总得正的候选区域也比较少


划分锚框跟图片大小没关系,小方块的尺寸是固定的:


这三种大小是在COCO数据集上统计出来的:


可以调中心坐标和高度宽度
cx是小方块左上角的坐标。pw ph是原本锚框的宽度和高度。
tx是随机初始化得到的,也就是说他是一个可以训练的参数。
如果txty=0,正好在小方块的中心 twth=0正好和锚框重合


问题转换:

  1. 神经网络最后做最优化问题会对损失函数求极小值,如果做最优化问题对一个数值给一个限制,那就是带着约束条件下求极值。约束条件下求极值就需要引入拉格朗日乘子,还不一定每次都是一个凸优化的过程。


下面展开这3点


也会防止正负样本不均衡的问题:


有问题的计算方式:
没有标记OBJ=1的不计算标签。没有包含物体就不用做回归了。


相对于原图缩小了8-32倍


算损失函数第一步:

image.png

输出特征图和预测位置怎么来结合呢?也是用卷积网络在做对应关系,一开始C0是bacbone的特征图,最终输出是跟预测相关的特征图。中间看着比较长,其实就是多层卷积的叠加,每层加上batch norm


P0如何跟特征图联系起来,前12个事跟第一个锚框表示起来


较小物体的损失函数做的更大一些
改进方案:用反卷积
比较麻烦的一点就是改动任何一点就涉及比较大量的计算。

根据label找anchor


找预测类别,不同区域在不同维度上找类别:


多尺度,以及小目标检测:


你可能感兴趣的:(2020-12-30)