卷积神经网络2-padding

什么是padding?

             padding就是填充、覆盖的意思,在这里就是在图像矩阵的周围进行边界填充。

padding大小的选择?

              padding大小的选择是由我们的需求决定的,假如我们用一个3x3的矩阵卷积一个7x7的矩阵,那么我们会得到一个4x4的矩阵,也就是由7x7变成的4x4的矩阵,这可能不是我们要的效果,因为我们需要卷积完以后也是一个7x7的矩阵,那么怎么办呢?假如我们在7x7的基础上填充一圈变成9x9的矩阵,你可以把元素置为0,这样再由3x3的矩阵卷积,就是7x7的矩阵了。

             这里我们通常有这样简单的计算公式,原始矩阵nxn由fxf的矩阵卷积,那么得到的新矩阵就是(n-f+1)x(n-f+1)的矩阵,

那么我们想要得到一个与原始图像大小一样的矩阵呢?

            也就是我们需要进行填充p,有这么一个式子成立,n+2p-f+1 = n。通过解的p=(f-1)/ 2。从而计算出padding的大小。

过滤器的选择?

             我们通常选择3x3的过滤器,但是如果你阅读大量文献,你也会发现也有许多5x5、7x7的过滤器。不难发现,这里都是奇数类型的过滤器。如果你阅读许多相关文献,你也会发现绝大多数都选择的是奇数过滤器,这也符合计算机视觉的惯例。之所以选择奇数,一方面有便于确定过滤器当前所在的位置(只有一个中心点),另外也不止是这个原因。当然,也可以选择偶数过滤器,可能也会有很不错的效果。

 

你可能感兴趣的:(深度学习)