跟着b站up主学习整理:2.1 pytorch官方demo(Lenet)_哔哩哔哩_bilibili
目录
一、CNN的雏形——LeNet网络结构
二、官网demo文件
三、代码实现
1.model.py
2.train.py
3.predict.py
1998年,LeCun等人发布了LeNet网络,从而揭开了深度学习的面纱,之后的深度神经网络都是在这个基础之上进行改进的,其结构如图所示。
如图,LeNet是由卷积层、池化层、全连接层的顺序连接,网络中的每个层使用一个可微分的函数将激活数据从一层传递到另一层。
[batch, channel, height, width]
pytorch官网给出的LeNet demo文件如图所示:
# 使用torch.nn包来构建神经网络.
import torch.nn as nn
import torch.nn.functional as F
class LeNet(nn.Module): # 继承于nn.Module这个父类
def __init__(self): # 初始化网络结构
super(LeNet, self).__init__() # 多继承需用到super函数
self.conv1 = nn.Conv2d(3, 16, 5)
self.pool1 = nn.MaxPool2d(2, 2)
self.conv2 = nn.Conv2d(16, 32, 5)
self.pool2 = nn.MaxPool2d(2, 2)
self.fc1 = nn.Linear(32*5*5, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 10)
def forward(self, x): # 正向传播过程
x = F.relu(self.conv1(x)) # input(3, 32, 32) output(16, 28, 28)
x = self.pool1(x) # output(16, 14, 14)
x = F.relu(self.conv2(x)) # output(32, 10, 10)
x = self.pool2(x) # output(32, 5, 5)
x = x.view(-1, 32*5*5) # output(32*5*5)
x = F.relu(self.fc1(x)) # output(120)
x = F.relu(self.fc2(x)) # output(84)
x = self.fc3(x) # output(10)
return x
代码中的卷积层函数Conv2d在pytorch中对应的原函数是:
torch.nn.Conv2d(in_channels,
out_channels,
kernel_size,
stride=1,
padding=0,
dilation=1,
groups=1,
bias=True,
padding_mode='zeros')
其中输入参数的解释如下:
经过卷积后的输出矩阵维度大小变化的计算公式如下:
如果在卷积过程中通过上式计算得到的N不为整数时,pytorch一般会通过删除多余的行和列来保证卷积输出的矩阵尺寸N为整数。具体参考pytorch中的卷积操作详解
Tensor的展平:view()
在经过第二个池化层之后,数据还是一个三维的tensor(32,5,5),需要先展平成(35*5*5)后再传入到全连接层,展平操作通过view()函数实现。
导入包
import torch
import torchvision
import torch.nn as nn
from model import LeNet
import torch.optim as optim
import torchvision.transforms as transforms
数据预处理
使用transform函数对输入的图像数据进行预处理,ToTensor()将其转换为tensor。Normalize()进行标准化
transform = transforms.Compose(
[transforms.ToTensor(), #
transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])
数据集介绍
利用torchvision.datasets函数可以在线下载导入pytorch中的数据集,包含一些常见的数据集如MNIST等。
此demo中使用的是CIFAR10数据集,是一个经典的图像分类数据集,由Hinton的学生Alex Krizhevsky和IIya Sutskever整理的一个用于识别普适物体的小型数据集,其中包含了10个类别的RGB彩色图片。
导入和加载训练集:
# 50000张训练图片
# 第一次使用时要将download设置为True才会自动去下载数据集
train_set = torchvision.datasets.CIFAR10(root='./data', train=True,
download=True, transform=transform)
train_loader = torch.utils.data.DataLoader(train_set, batch_size=36,
shuffle=True, num_workers=0)
导入和加载测试集:
# 10000张验证图片
# 第一次使用时要将download设置为True才会自动去下载数据集
val_set = torchvision.datasets.CIFAR10(root='./data', train=False,
download=False, transform=transform)
val_loader = torch.utils.data.DataLoader(val_set, batch_size=10000,
shuffle=False, num_workers=0)
名词 | 定义 |
epoch | 1个epoch表示过了1遍训练集中的所有样本 |
iteration | 表示1次迭代,每次迭代更新1次网络结构的参数 |
batch_size | 将训练集分成多个批次训练,每批数据的大小为 batch_size,即1次迭代所使用的样本量 |
以本demo为例,训练集一共有50000个样本,batch_size=50,那么完整的训练一次样本:iteration=1000 。训练过程代码如下:
net = LeNet() # 定义训练的网络模型
loss_function = nn.CrossEntropyLoss() # 定义损失函数为交叉熵损失函数
optimizer = optim.Adam(net.parameters(), lr=0.001) # 定义优化器(训练参数,学习率)
for epoch in range(5): # 一个epoch即对整个训练集进行一次训练
running_loss = 0.0
time_start = time.perf_counter()
for step, data in enumerate(train_loader, start=0): # 遍历训练集,step从0开始计算
inputs, labels = data # 获取训练集的图像和标签
optimizer.zero_grad() # 清除历史梯度
# forward + backward + optimize
outputs = net(inputs) # 正向传播
loss = loss_function(outputs, labels) # 计算损失
loss.backward() # 反向传播
optimizer.step() # 优化器更新参数
# 打印耗时、损失、准确率等数据
running_loss += loss.item()
if step % 1000 == 999: # print every 1000 mini-batches,每1000步打印一次
with torch.no_grad(): # 在以下步骤中(验证过程中)不用计算每个节点的损失梯度,防止内存占用
outputs = net(test_image) # 测试集传入网络(test_batch_size=10000),output维度为[10000,10]
predict_y = torch.max(outputs, dim=1)[1] # 以output中值最大位置对应的索引(标签)作为预测输出
accuracy = (predict_y == test_label).sum().item() / test_label.size(0)
print('[%d, %5d] train_loss: %.3f test_accuracy: %.3f' % # 打印epoch,step,loss,accuracy
(epoch + 1, step + 1, running_loss / 500, accuracy))
print('%f s' % (time.perf_counter() - time_start)) # 打印耗时
running_loss = 0.0
print('Finished Training')
# 保存训练得到的参数
save_path = './Lenet.pth'
torch.save(net.state_dict(), save_path)
训练时间花费12分钟左右,训练结果:
import torch
import torchvision.transforms as transforms
from PIL import Image
from model import LeNet
def main():
transform = transforms.Compose(
[transforms.Resize((32, 32)),
transforms.ToTensor(),
transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])
classes = ('plane', 'car', 'bird', 'cat',
'deer', 'dog', 'frog', 'horse', 'ship', 'truck')
net = LeNet() # 初始化
net.load_state_dict(torch.load('Lenet.pth')) #载入训练好的权重文件
im = Image.open('1.jpg')
im = transform(im) # [C, H, W]
im = torch.unsqueeze(im, dim=0) # [N, C, H, W]
with torch.no_grad():
outputs = net(im)
# predict = torch.max(outputs, dim=1)[1].data.numpy()
# print(classes[int(predict)])
predict = torch.softmax(outputs, dim=1)
print(predict)
if __name__ == '__main__':
main()
测试图片:
测试结果:
使用softmax函数处理可以得到预测该图类别的概率分布如下,输出结果中最大概率值对应的索引即为预测标签的索引,也可以看出分类为飞机的概率约为92.7%:
总结:CPU训练果然好慢好慢呀!
参考博文:pytorch图像分类篇:2.pytorch官方demo实现一个分类器(LeNet)_fun1024-CSDN博客