感受野的计算公式:RFl+1 = RFl + (kernel_size -1) × stride
layer1的感受野:RF1 = 1
layer2的感受野:RF2 = 1+(3-1)×1 = 3
layer3的感受野:RF2 = 3+(3-1)×1 = 5
感受野越大,分割时获取的全局信息越多,分割越准确。
在全卷积神经网络中感受域问题存在和熊掌不可兼得的问题:
增大stride能够获得更大的感受野,但同时会丢失图像中的信息。
deeplab系列提出了空洞卷积的方法来增大感受野的同时解决信息丢失问题
平移不变性是卷积网络的基础,但是放在卷积神经网络中出现错误
平移不变性在CNN网络中已经被证伪(CNN不遵循平移不变性),随着CNN网络的不断加深,平移不变性在慢慢消失,VGG,resNet等网络都不符合平移不变性
CNN不循循平移不变性的原因:
(1)忽略了采样定律(过多的下采样导致的) ,大尺度的步长(stride=2,3,4等)会破坏空间坐标信息,导致输出结果发生变化
可以理解为卷积的逆运算,反卷积并不能复原卷积操作造成的值的损失,它仅仅是将卷积过程中的步骤反向变换一次,因此可以称为转置卷积。
采用反卷积的训练方式在端到端的训练中参数可以学习
计算公式:
卷积输出计算: output = (input -k + 2p)/srride + 1
反卷积输出计算:output = (input -1)×stride + k -2p
通过多次卷积,每次将图像进行下采样,获得原图像尺寸一半的feature map
注意点:通过加深网络层可以提取更多的特征信息,但是更深的网络层会导致图像的精细信息丢失,所以存在一个矛盾点,可以通过跳跃连接的方式将浅层信息加到深层信息中,提升深层神经网络分割效果的目的
结论:类别平衡问题再数据集中是值得关注的点,不同数据集的架构不同,需要用不同的方式调整类别平衡(给具体类别添加权重等方式),保证类别的平衡性能够提高在验证数据集中的结果。