import torch
import torchvision.datasets
from torch import nn
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter
# 把model中的所有引入,model中有模型
from model import *
# 1、准备数据集:训练数据集,测试数据集
train_data = torchvision.datasets.CIFAR10("./dataset_ts", train=True, transform=torchvision.transforms.ToTensor(), download=True)
test_data = torchvision.datasets.CIFAR10("./dataset_ts", train=True, transform=torchvision.transforms.ToTensor(), download=True)
# lenth 长度——获取数据集的长度
train_data_size = len(train_data)
test_data_size = len(test_data)
print("训练数据集的长度为:{}".format(train_data_size))
print("测试数据集的长度为:{}".format(test_data_size))
# 格式化字符串的写法:如果train_data_size=10,
# 2、利用DataLoader来加载数据集
train_dataloader = DataLoader(train_data, batch_size=64) #相当于将数据打包为一个batch一个batch的加载
test_dataloader = DataLoader(test_data, batch_size=64)
tui = Tui()
model.py文件:
# 搭建神经网络
import torch
from torch import nn
class Tui(nn.Module):
def __init__(self) -> None:
super().__init__()
self.model = nn.Sequential(
nn.Conv2d(3, 32, 5, 1, 2),
nn.MaxPool2d(2),
nn.Conv2d(32, 32, 5, 1, 2),
nn.MaxPool2d(2),
nn.Conv2d(32, 64, 5, 1, 2),
nn.MaxPool2d(2),
nn.Flatten(),
nn.Linear(64 * 4 * 4, 64),
nn.Linear(64, 10)
)
def forward(self, x):
x = self.model(x)
return x
# main函数
if __name__ == '__main__':
tudui = Tui()
# 验证网络模型的正确性,创造一个输入尺寸,判断输出尺寸是不是我们想要的
input = torch.ones((64, 3, 32, 32)) # batchsize=64,channel=3,尺寸32*32
output = tudui(input)
print(output.shape)
loss_fn = nn.CrossEntropyLoss() #交叉熵损失函数多用于分类问题
learning_rate = 1e-2
optimizer = torch.optim.SGD(tui.parameters(), lr=learning_rate) #params:网络模型
# 记录训练的次数
total_train_step = 0
# 记录测试的次数
total_test_step = 0
# 训练的轮数
epoch = 10
writer = SummaryWriter("logs_train")
x = x - lr * x.grad
,减号是由于要沿着梯度的反方向调整变量值以减少Cost。# 设置训练轮数
for i in range(epoch): #大循环!!!!
print("---------第{}轮训练开始---------".format(i+1))
# 7、训练步骤开始:
# 并不是说把网络设置为训练模式才可以训练
# 作用是:当模块中有Dropout, BatchNorm层时,一定要调用他,对其特定模块起作用
tui.train()
for data in train_dataloader: #从dataloader中一个batch一个batch的取数据
imgs, targets = data
outputs = tui(imgs) #真实输出
# ①计算真实输出与目标之间的误差
loss = loss_fn(outputs, targets)
# ②优化器调优 优化模型
optimizer.zero_grad() #梯度清零
loss.backward() #反向传播, 得到每个参数的梯度
optimizer.step() #对每个梯度进行优化
total_train_step = total_train_step + 1 #记录训练次数,一个batch一次
if total_train_step % 100 == 0:
print("训练次数:{},Loss:{}".format(total_train_step, loss.item())) #.item()作用:将tensor型输出为整数
writer.add_scalar("train_loss", loss.item(), total_train_step)
Dropout
层和batch normalization
层。在模型预测阶段,我们需要将这些层设置到预测模式,model.eval()
就是帮我们一键搞定的,如果在预测的时候忘记使用model.eval(),会导致不一致的预测结果。Dropout为啥训练和预测部分不一样呢
torch.no_grad(): 通常在实际代码中,在预测阶段,也会加上torch.no_grad()
来关闭梯度的计算。那么,预测阶段的代码基本要这样写
accuracy=(outputs.argmax
(1)==targets).sum(): 求每个对应位置最大的值和targets比较返回true或false。利用sum求和。
在分类问题当中,通常需要有正确率作为分类评判的标准。
当argmax(1)
时,是 横向 查找比较数据的大小索引,取出最大值所在的位置也就是说,如果是为1,则返回每一行
最大值的索引
当argmax(0)
时,是纵向查找比较数据的大小索引,取出最大值所在的位置 。也就是说,如果是为0,则返回每一列
最大值的索引
# 如何知道模型又没有训练好————进行测试,在测试机上跑一遍,
# 用测试数据集上的损失或正确率评估模型有没有训练好
# 8、测试
# 模型中如果有BatchNormalization和Dropout,在预测时使用model.eval()后会将其关闭以免影响预测结果。
# (1)设置测试参数
total_test_loss = 0 #总损失
total_accuracy = 0 #整体正确率
# (2)测试步骤开始
tui.eval()
# 将网络模型中的梯度消失,只需要测试,不需要对梯度进行调整,也不需要利用梯度来优化
with torch.no_grad():
for data in test_dataloader: #从测试集中取数据
imgs, targets= data
outputs = tui(imgs)
loss = loss_fn(outputs, targets) #计算损失
total_test_loss = total_test_loss + loss.item() #计算总损失
# 求每个对应位置最大的值和targets比较返回true或false。利用sum求和
accuracy = (outputs.argmax(1) == targets).sum()
total_accuracy = total_accuracy + accuracy #计算测试正确的总个数
# 9、计算测试集的loss,正确率,以此展现训练网络在测试集上的效果
print("整体测试集上的Loss: {}".format(total_test_loss))
print("整体测试集上的正确率: {}".format(total_accuracy/test_data_size)) #正确率为测试正确的个数/测试集总个数
# 将结果在tensorboard上展示
writer.add_scalar("test_accuracy", total_accuracy/test_data_size, total_test_step)
writer.add_scalar("test_loss", total_test_loss, total_test_step)
total_test_step = total_test_step + 1
torch.save(tui, "tui_{}.pth".format(i)) #将模型保存指定路径中
print("模型已保存")
writer.close()
完整程序:
model.py文件:
# 搭建神经网络
import torch
from torch import nn
class Tui(nn.Module):
def __init__(self) -> None:
super().__init__()
self.model = nn.Sequential(
nn.Conv2d(3, 32, 5, 1, 2),
nn.MaxPool2d(2),
nn.Conv2d(32, 32, 5, 1, 2),
nn.MaxPool2d(2),
nn.Conv2d(32, 64, 5, 1, 2),
nn.MaxPool2d(2),
nn.Flatten(),
nn.Linear(64 * 4 * 4, 64),
nn.Linear(64, 10)
)
def forward(self, x):
x = self.model(x)
return x
# main函数
if __name__ == '__main__':
tudui = Tui()
# 验证网络模型的正确性,创造一个输入尺寸,判断输出尺寸是不是我们想要的
input = torch.ones((64, 3, 32, 32)) # batchsize=64,channel=3,尺寸32*32
output = tudui(input)
print(output.shape)
train.py文件:
import torch
import torchvision.datasets
from torch import nn
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter
# 把model中的所有引入,model中有模型
from model import *
# 1、准备数据集:训练数据集,测试数据集
train_data = torchvision.datasets.CIFAR10("./dataset_ts", train=True, transform=torchvision.transforms.ToTensor(), download=True)
test_data = torchvision.datasets.CIFAR10("./dataset_ts", train=True, transform=torchvision.transforms.ToTensor(), download=True)
# lenth 长度——获取数据集的长度
train_data_size = len(train_data)
test_data_size = len(test_data)
print("训练数据集的长度为:{}".format(train_data_size))
print("测试数据集的长度为:{}".format(test_data_size))
# 格式化字符串的写法:如果train_data_size=10,
# 2、利用DataLoader来加载数据集
train_dataloader = DataLoader(train_data, batch_size=64) #相当于将数据打包为一个batch一个batch的加载
test_dataloader = DataLoader(test_data, batch_size=64)
# 3、搭建神经网络模型
tui = Tui()
# 4、定义损失函数
loss_fn = nn.CrossEntropyLoss() #交叉熵损失函数多用于分类问题
# 5、定义优化器
learning_rate = 1e-2
optimizer = torch.optim.SGD(tui.parameters(), lr=learning_rate) #params:网络模型
# 6、设置训练网络的一些参数
# 记录训练的次数
total_train_step = 0
# 记录测试的次数
total_test_step = 0
# 训练的轮数
epoch = 10
# 添加tensorboard
writer = SummaryWriter("logs_train")
# 设置训练轮数
for i in range(epoch):
print("---------第{}轮训练开始---------".format(i+1))
# 7、训练步骤开始:
# 并不是说把网络设置为训练模式才可以训练
# 作用是:当模块中有Dropout, BatchNorm层时,一定要调用他,对其特定模块起作用
tui.train()
for data in train_dataloader: #从dataloader中一个batch一个batch的取数据
imgs, targets = data
outputs = tui(imgs) #真实输出
# ①计算真实输出与目标之间的误差
loss = loss_fn(outputs, targets)
# ②优化器调优 优化模型
optimizer.zero_grad() #梯度清零
loss.backward() #反向传播, 得到每个参数的梯度
optimizer.step() #对每个梯度进行优化
total_train_step = total_train_step + 1 #记录训练次数,一个batch一次
if total_train_step % 100 == 0:
print("训练次数:{},Loss:{}".format(total_train_step, loss.item())) #.item()作用:将tensor型输出为整数
writer.add_scalar("train_loss", loss.item(), total_train_step)
# 如何知道模型又没有训练好————进行测试,在测试机上跑一遍,
# 用测试数据集上的损失或正确率评估模型有没有训练好
# 8、测试
# 模型中如果有BatchNormalization和Dropout,在预测时使用model.eval()后会将其关闭以免影响预测结果。
# (1)设置测试参数
total_test_loss = 0 #总损失
total_accuracy = 0 #整体正确率
# (2)测试步骤开始
tui.eval()
# 将网络模型中的梯度消失,只需要测试,不需要对梯度进行调整,也不需要利用梯度来优化
with torch.no_grad():
for data in test_dataloader: #从测试集中取数据
imgs, targets= data
outputs = tui(imgs)
loss = loss_fn(outputs, targets) #计算损失
total_test_loss = total_test_loss + loss.item() #计算总损失
# 求每个对应位置最大的值和targets比较返回true或false。利用sum求和
accuracy = (outputs.argmax(1) == targets).sum()
total_accuracy = total_accuracy + accuracy #计算测试正确的总个数
# 9、计算测试集的loss,正确率,以此展现训练网络在测试集上的效果
print("整体测试集上的Loss: {}".format(total_test_loss))
print("整体测试集上的正确率: {}".format(total_accuracy/test_data_size)) #正确率为测试正确的个数/测试集总个数
# 将结果在tensorboard上展示
writer.add_scalar("test_accuracy", total_accuracy/test_data_size, total_test_step)
writer.add_scalar("test_loss", total_test_loss, total_test_step)
total_test_step = total_test_step + 1
torch.save(tui, "tui_{}.pth".format(i)) #将模型保存指定路径中
print("模型已保存")
writer.close()
参考: