Pytorch-学习记录 卷积操作——Tensor.size()

设计网络结构、看网络结构源码时时常需要计算输入在结构中经过卷积层、pooling层后尺寸大小,特此记录。


pytorch中二维卷积层接口为 Conv2d() ,参数详情不多赘述,详情请参阅官方文档。我在此主要说明卷积层对输入计算之后size的变化情况。

例如,

Pytorch-学习记录 卷积操作——Tensor.size()_第1张图片

卷积层的in_channels首先要与input的channels相对应,具体到上例,就是黑色和蓝色框所对应的部分。out_channels自行设定,表示输出卷积核个数。kernel_size为卷积核大小,stride为卷积核在输入上的窗口移动步长,当输入stride参数为int时,表示卷积核移动在横向与纵向都是相同步长,若stride=(x,y),表示在横轴与纵轴以不同步长滑动。   padding简单理解为对输入特征图四周的填充。kernel_size、padding、stride会影响输出特征图的尺寸。

从上图可知,输入的 batchsize=64 在网络结构前向传递过程中不改变大小。同时,在kernel_size=3,stride=1,padding=1的前提下,卷积不改变输入图像的尺寸。


特征图尺寸计算方式:

feature-map height  :   {(input_height - kernel_size + 2*padding) / stride[0] }+1  (stride[0]表示横向移动步长])



相似地,feature-map width    :   {(input_width - kernel_size + 2*padding) / stride[1] }+1  (stride[1]表示纵向移动步长])



再举个例子,输入经过两层卷积和一层pooling后尺寸。

Pytorch-学习记录 卷积操作——Tensor.size()_第2张图片


计算过程:

经过第一层卷积后:(224-7+2*2)/2+1=111

第二层卷积:(111-3+1*2)/1+1=111

pooling:(111-3)/2+1=55

每一层的输出channels即是下一层的输入channels。

Resnet、Inception结构中有大量kernel_size=3,stride=1,padding=1的层,他们不改变特征图图大小。


总结一下,设计网络结构时候要注意输入channels和卷积层的in_channels保持一致,不同的kernel_size、padding、stride会影响输出特征图尺寸。


参考资料:

pytorch中文文档 http://pytorch-cn.readthedocs.io/zh/latest/

你可能感兴趣的:(Pytorch-学习记录 卷积操作——Tensor.size())