深度学习中卷积核问题

1、卷积核为什么采用奇数?

浅层来看,肯定采用卷积核尺寸采用偶数×偶数的效果比奇数×奇数差。

(1)保证了锚点刚好在中间,方便以模块中心为标准进行滑动卷积;

(2)考虑padding时,图像的两边依然相对称。


2、1×1卷积核的作用

(1)可以对图像进行升维操作和降维操作;

(2)多个feature map的线性组合,实现跨通道的交互和信息整合。


3、GoogleNet中浅层的inception模块的3×3和5×5的卷积核个数占比较少,而深层时占比较大?

答:希望靠后的inception module可以捕捉到更高阶的抽象特征,因此靠后的inception module的卷积的空间集中度应该逐渐降低,这样可以捕捉到更大面积的特征。因此,越靠后的inception module中,3*3和5*5这两个大面积的卷积核的占比(输出通道)应该更多。

你可能感兴趣的:(深度学习)