PyTorch深度学习——Anaconda和PyTorch安装
Pytorch深度学习-----数据模块Dataset类
Pytorch深度学习------TensorBoard的使用
Pytorch深度学习------Torchvision中Transforms的使用(ToTensor,Normalize,Resize ,Compose,RandomCrop)
Pytorch深度学习------torchvision中dataset数据集的使用(CIFAR10)
Pytorch深度学习-----DataLoader的用法
Pytorch深度学习-----神经网络的基本骨架-nn.Module的使用
卷积操作是一种线性操作,通常用于处理信号和图像等数据。在图像处理中,卷积操作可以用于提取图像的特征,例如边缘、纹理等。
卷积操作是通过卷积核(也称滤波器)与输入数据进行逐元素乘积、求和运算的过程,从而得到卷积特征图。所以卷积操作就是一种运算。
input:输入矩阵,为tensor型,
weight:卷积核 ,为tensor型,
bias:即误差/偏差值
stride:步长,默认为1
padding:填充大小,默认为0
dilation:控制卷积核之间的间距
groups:控制输入和输出之间的连接
注意:
input中的shape:
minibatch:batch中的样例个数
in_channels:每个样例数据的通道数
iH:每个样例的高(行数)
iW:每个样例的宽(列数)
weight中的shape:
out_channels:卷积核的个数
in_channels/groups:每个卷积核的通道数
kH:每个卷积核的高(行数)
kW:每个卷积核的宽(列数)
代码如下:
import torch.nn.functional as F
import torch
# 创建二维矩阵,并为tensor数据类型
input = torch.tensor([[1,2,0,3,1],
[0,1,2,3,1],
[1,2,1,0,0],
[5,2,3,1,1],
[2,1,0,1,1]])
# 创建tensor数据类型的卷积核
kernel = torch.tensor([[1,2,1],
[0,1,0],
[2,1,0]])
# 打印核验看input和kernel的shape是不是有4个数据
print(input.shape) # torch.Size([5, 5])
print(kernel.shape) # torch.Size([3, 3])
# 由上面可以知道shape不是4个数据,而是只有h和w的2个数据,故进行reshape
input = torch.reshape(input,(1,1,5,5)) # 表示样例个数1,每一个样例数据的通道数1,高5,宽5
kernel = torch.reshape(kernel,(1,1,3,3))
# 进行conv2d卷积运算
output = F.conv2d(input,kernel,stride=1) # stride=1即每一次只进行一步移动操作
print(output)
"""
tensor([[[[10, 12, 12],
[18, 16, 16],
[13, 9, 3]]]])
"""