pytorch学习笔记(7):卷积 池化 权值初始化等 一定坚持学完啊!!

1.卷积

卷积维度:一般情况下,卷积核在几个维度上滑动,就是几位卷积

nn.conv2d()对多个二维信号进行二维卷积


nn.conv2d(
in_channels:输入通道数
out_channels:输出通道数 等价于卷积核的个数
kernel_size:卷积核尺寸
stride:步长
padding:填充个数
dilation,空洞卷积大小
groups,分组卷积设置
bias,偏置
padding_mode='zeros'

)

nn.ConvTranspose2d()转置卷积

nn.ConvTranspose2d(
in_channels:输入通道数
out_channels:输出通道数 等价于卷积核的个数
kernel_size:卷积核尺寸
stride:步长
padding:填充个数
dilation,空洞卷积大小
groups,分组卷积设置
bias,偏置
padding_mode='zeros'
)

2.池化

最大池化

nn.MaxPool2d( 对二维信号进行最大池化
kernel_size:卷积核尺寸
stride:步长
padding:填充个数
dilation,池化核间隔大小
return_indices:记录池化像素索引  用来反池化操作
ceil_mode:尺寸向上取整
)

平均池化

nn.AvgPool2d( 对二维信号进行平均值池化
kernel_size:卷积核尺寸
stride:步长
padding:填充个数
ceil_mode:尺寸向上取整
count_include_pad:填充值用于计算
divisor_override:除法因子
)

反池化

nn.MaxUnpool2d( 对二维信号进行最大值池化上采样
kernel_size:卷积核尺寸
stride:步长
padding:填充个数
)

3.全连接层

 nn.Linear(
 in_features,
 out_features,
 bias,
 )
 

4. 激活函数层:

 激活函数层:
 nn.Sigmoid()
 nn.tanh()
 nn.ReLU()
 nn.LeakyReLU(
 negative_slope:负半轴斜率
 )
 nn.PRelU(
 init:可学习斜率
 )
 nn.RReLU(
 lower均匀分布下限
 upper均匀分布上限
 )

5.权值初始化

pytorch学习笔记(7):卷积 池化 权值初始化等 一定坚持学完啊!!_第1张图片
pytorch学习笔记(7):卷积 池化 权值初始化等 一定坚持学完啊!!_第2张图片
pytorch学习笔记(7):卷积 池化 权值初始化等 一定坚持学完啊!!_第3张图片
pytorch学习笔记(7):卷积 池化 权值初始化等 一定坚持学完啊!!_第4张图片

你可能感兴趣的:(pytorch学习笔记)