Pytorch(1) 学习笔记-多分类网络的搭建

  接触机器学习和深度学习已经有一段时间了,一直想做个记录,方便自己以后的查阅。

  一开始我搭建神经网络时所使用的框架是Tensorflow,虽然功能强大但是不同版本代码的兼容性有些差强人意。

  以下的内容所创建的环境是Anaconda中的虚拟环境,采用的python版本是3.8,cuda和cudnn都是对应的版本。

  搭建和训练神经网络分为以下几个步骤:1.数据集的准备 2.神经网络的搭建 3.反向传播调整参数降低loss值

  只是一个记录。

  一. 数据集的准备

  搭建完一个神经网络之后必不可少的步骤是对其进行训练,不断降低其loss值,修改参数。在此之前介绍一下与数据集息息相关的两个函数DatasetsDataLoader.

  首先来说说Datasets,Datasets是torch下工具包的一个primitive,中文翻译为基元

 Datasets

import torchvision

  Dataset提供了很多已经收集好标记好的数据集,如Image Datasets,Text Datasets,Audio Datasets.我们可以通过以下方式来下载数据集。

dataset=torchvision.datasets.CIFAR10(root="./dataset",
                                     train=True,
                                     tansform=torchvision.transforms.ToTensor(),
                                     download=True)

  此时我们下载的是CIFAR10数据集,该数据集提供了10个class的图片,分为planes,cars,truck等,所以该数据集适合多分类网络的入门。

  root代表我们下载数据集所存储的位置,一般是直接放在项目列表下;train指定训练或测试数据集,如果设置为True则设置为训练集,如果为False则为测试集;download设置为True的话是如果我们的根目录里没有检测到该数据集,则从网上进行下载。

  我们都知道神经网络需要的input是tensor数据类型,也就是张量,所以我们在加载图片之前需要将图片数据转换为tensor数据类型。torchvision提供了ToTensor的方法来进行转变,我们在下载数据集时可以直接进行转换。

DataLoader

  当下载完数据集后,我们需要装载数据集,就像打牌时发完牌我们需要用手去抓取,一次抓四张还是一次抓五张由我们自己决定。

dataloader=DataLoader(dataset=dataset,
                      batch_size=32,
                      shuffle=True)

dataset:要使用的数据集

batch_size:每个batch有多少个样本,就和我们一次抓多少张牌

shuff:在每个epoch开始的时候对数据进行重新排序

二.神经网络的搭建

这里我们主要使用的是torch.nn,它为我们封装好了现成的函数

class Net(nn.Module):#继承nn.Module
    def __init__(self):
        super(Net,self).__init__()#初始化
        self.module=nn.Sequential(
        Conv2d(3, 32, 5, padding=2),
        MaxPool2d(2),
        Conv2d(32, 32, 5, padding=2),
        MaxPool2d(2),
        Conv2d(32, 64, 5, padding=2),
        MaxPool2d(2),
        Flatten(),
        Linear(1024, 64),
        Linear(64, 10)
        )
    
    def forward(self,input):
        output=self.module(input)
        return output

  这里搭建module使用的是nn.Sequential,如果一步一步来搭建网络,在forward时我们还得重新写一遍。

   以上仅仅使用了卷积层、最大池化层和线性层,激活层并未使用。

三.读取数据并进行反向传播

  接下来我们要把数据加载进神经网络并进行反向传播。

  

net=Net()#实例化网络

loss=nn.CrossEntryLoss()

optim=torch.optim.SGD(net.parameters(),lr=0.01)

for epoch in range(100):
    for data in dataloader:
    imgs,targets=data
    outputs=net(imgs)
    loss_result=loss(outputs,targets)
    optim.zero_grad()#梯度清零
    loss.backward()#进行反向传播计算梯度
    optim.step()#进行参数优化
    print(loss_result)
    

  这里我们设置了50个epoch。在第一个epoch时loss值为2.3左右

 Pytorch(1) 学习笔记-多分类网络的搭建_第1张图片

 在第40个epoch时loss值已经下降到0.4左右

Pytorch(1) 学习笔记-多分类网络的搭建_第2张图片

在第100个epoch时已经下降到0.001左右了

 Pytorch(1) 学习笔记-多分类网络的搭建_第3张图片

 下面我把全部的代码贴出来,做个备份。

# -*- codeing = utf-8 -*-
# @Time : 2021/7/21 14:45
# @Author : ZY
# @File : caculate_loss.py
# Software : PyCharm
# Goal:Caculate the loss of CIFAR10 dataset using CrossEntryloss

import torchvision
import torch
from torch import nn
from torch.nn import Sequential, Conv2d, MaxPool2d, Flatten, Linear
from torch.utils.data import DataLoader

dataset = torchvision.datasets.CIFAR10("pytorch代码/data",
                                   train=False,
                                   transform=torchvision.transforms.ToTensor(),
                                   download=False)
dataloader = DataLoader(dataset, batch_size=32, shuffle=True)

#build the net
class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.model1 = Sequential(
            Conv2d(3, 32, 5, padding=2),
            MaxPool2d(2),
            Conv2d(32, 32, 5, padding=2),
            MaxPool2d(2),
            Conv2d(32, 64, 5, padding=2),
            MaxPool2d(2),
            Flatten(),
            Linear(1024, 64),
            Linear(64, 10)
        )

    def forward(self, x):
        x = self.model1(x)
        return x

net=Net()
loss=nn.CrossEntropyLoss()
optim=torch.optim.SGD(net.parameters(),lr=0.01)
for epoch in range(100):
    print(epoch)
    for data in dataloader:
        imgs, targrts=data
        outputs=net(imgs)
        # print(outputs)
        result_loss=loss(outputs,targrts)
        optim.zero_grad()
        result_loss.backward()
        optim.step()
        print(result_loss)

你可能感兴趣的:(pytorch学习笔记,python,深度学习,pytorch)