土堆学习笔记——P27完整的模型训练套路(一)

步骤1:准备数据集 并 看下数据的多少

train_data = torchvision.datasets.CIFAR10("./神经网络",train = True, 
                                       transform = torchvision.transforms.ToTensor(),
                                       download = True)

test_data = torchvision.datasets.CIFAR10("./神经网络",train = False, 
                                       transform = torchvision.transforms.ToTensor(),
                                       download = True)

#看下训练数据的多少
train_data_size= len(train_data)
test_data_size= len(test_data)
print("训练数据集的长度为{}".format(train_data_size))
print("测试数据集的长度为{}".format(test_data_size))

步骤2:利用dataloader来加载数据集

train_dataloader = DataLoader(train_data, batch_size=64)
test_dataloader = DataLoader(test_data, batch_size=64)

步骤3:搭建神经网络,可以写在同文件夹下另一个py文件中,之后from 文件名 import类名

#搭建神经网络
class Tudui(nn.Module):
    def __init__(self):
        super(Tudui,self).__init__()
        self.model = nn.Sequential(
            Conv2d(3, 32 , 5, padding = 2),
            MaxPool2d(2),
            Conv2d(32, 32, 5,padding = 2),
            MaxPool2d(2),
            Conv2d(32, 64, 5, padding = 2),
            MaxPool2d(2),
            Flatten(),
            Linear(1024, 64),
            Linear(64, 10)
        )
    def forward(self,x):
        x = self.model(x)
        return x
    
if __name__ == '__main__':
    tudui = Tudui()
    input = torch.ones((64,3,32,32))
    output = tudui(input)
    print(output.shape) #输出torch.Size([64, 10])

步骤4:创建一堆变量,包括网络模型、损失函数、优化器、训练的次数、训练的轮次等

#创建网络模型
tudui = Tudui()

#损失函数
loss_fn = nn.CrossEntropyLoss()

#优化器
learning_rate = 0.01 #也是1e-2,理解为1*10的-2次方
optimizer = torch.optim.SGD(tudui.parameters(), lr=learning_rate)

#设置训练网络的一些参数
#记录训练的次数
total_train_step =0
#记录测试的次数
total_test_step =0
#训练轮次
epoch =10

步骤5:开始训练

for i in range(epoch):
    print("——————第{}轮训练开始——————".format(i+1))

    #训练步骤开始
    for data in train_dataloader:
        imgs, targets = data
        outputs = tudui(imgs)
        loss = loss_fn(outputs, targets)

        #优化器优化模型
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

        total_train_step = total_train_step +1
        print("训练次数: {}, Loss: {}".format(total_train_step, loss.item()))

你可能感兴趣的:(学习,笔记)