pytorch:如何从头开始训练一个CNN网络?

文章目录

  • 前言
  • 一、CNN?
  • 二、用单批量测试模型
    • 1.引入库
    • 2.读入数据集
    • 3. 建造Module实例
    • 4. 训练
  • 总结


前言

在刚开始学习Deep Learning时,一件几乎不可能的事情就是知道每一个东西背后的原理和用法。但是,很多人又不得不在前期涉猎很多在前期不应该碰的东西。多摸索是好事,但考虑到性价比,最好的办法是有人带着你从头实现一下你所需要做的。在此,我希望本文是目标导向型的——即与你一同从头实现出一个属于你自己的CNN。


一、CNN?

CNN是卷积神经网络,在此,我们力图简洁(让各种trick xx去吧)。我们不会考虑太多的trick,只希望和你一同,实现一个最简单最简单的CNN。

二、用单批量测试模型

称之为”single-batch training“。 事实上,它只是一个用来测试用的、在模型正式训练之前的一个测试。这一步仅仅是为了测试你模型是否有毛病,如果你对你自己的模型有信心,大可不必进行这一步。

在这一步,我们仅需要用一个batch来进行训练,观察其Loss能否降到0(亦为过拟合overfitting),如能,则进行我们的正式训练。

1.引入库

import cv2
import math

import numpy as np
import torch
import torch.nn as nn
import torchvision.transforms as transforms
from torch.hub import load_state_dict_from_url

from PIL import Image
import matplotlib.pyplot as plt
from torchvision.datasets import ImageFolder
from torch.utils.data import Dataset,DataLoader
from torchvision import datasets

2.读入数据集

至于数据集的读入,你可以用老师给的数据库,也可以利用torchvision自带的数据库(如果允许)。我在这篇1里讲到了三种具体的实现方法。但是在这里,我们用老师给的数据库。存放到相对目录的“./train_set/train_set”中。这里存放了30个类(划重点,下面要讲到)。

pytorch:如何从头开始训练一个CNN网络?_第1张图片

我们利用ImageFolder 来进行操作。非常方便。它会自动地读取有几类(几个子文件夹),编号等等工作。

BATCH_SIZE = 64
# normalization
train_transform = transforms.Compose([
    transforms.ColorJitter(hue=0.2, saturation=0.2, brightness=0.2),
    transforms.RandomAffine(degrees=10, translate=(0.1,0.1), scale=(0.9,1.1)),
    transforms.RandomHorizontalFlip(p=0.5),
    transforms.ToTensor()
])

# introduce the dataset 
trainset = ImageFolder(root="./train_set/train_set", transform=train_transform)
train_loader = DataLoader(dataset=trainset, batch_size=BATCH_SIZE, shuffle=False)

有几个坑的地方要注意一下:

  • transform是将图片进行预处理的一个参数。这个参数是需要依赖你自己的想法做的。具体可以自己去查一下,这里不再详细赘述。
  • 如果你决定用”single-batch training“来勘察你的模型维度设置等是否正确,你需要将shuffle设置为False(不随机抽取)。函数参数具体含义已经在pytorch:数据读取操作里。

3. 建造Module实例

所谓Module,我们即可以将其实例化为一个层,也可以将其实例化为一个网络(没错就是这么灵活,允许套娃)在此,我们继承nn.Module,设置一个CNN_model类。在 __init__方法中,我们使用将这个网络主要分为两个主要的模块:卷积模块(self.cnn)和全连接层模块(self.linear)。

我们利用 self.cnn = nn.Sequential()函数来整理一个大模块。它是有序的,模块将按照在传入构造器的顺序依次被添加到计算图中执行。注意,这里有30类,所以我们要保证最后一层的输出为30。

class CNN_model(nn.Module):
    def __init__(self):
        super(CNN_model, self).__init__()

        # conv1  
        self.cnn = nn.Sequential(
            nn.Conv2d(3, 16, kernel_size=3, stride=1, padding=1),
            nn.BatchNorm2d(16),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=2, stride=2), # 16x16x650
            nn.Conv2d(16, 32, kernel_size=3, stride=1, padding=1), # 32x16x650
            nn.ReLU(),
            nn.Dropout2d(0.5),
            nn.Conv2d(32, 64, kernel_size=3, stride=1, padding=1), # 64x16x650
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=2, stride=2), # 64x8x325
            nn.Conv2d(64, 128, kernel_size=3, stride=1, padding=1),
            nn.ReLU() # 64x8x325
        )
        self.linear = nn.Sequential(
            nn.Linear(32768, 128),
            nn.ReLU(),
            nn.Linear(128, 256),
            nn.ReLU(),
            nn.Linear(256, 30)
        ) 
        
    def forward(self,x):
        x = self.cnn(x)
        fc_input=x.view(x.size(0),-1)
        fc_output = self.linear(fc_input)
        return fc_output
        
# 将其实例化
cnn = CNN_model()
for param in cnn.parameters():
    print(param.shape)
    
# 得到一个data,查看是否成功读取。
dataiter = iter(train_loader)
images, labels = dataiter.next()
print(labels)

4. 训练

在训练时,我们要确定我们需要什么损失函数。这又和具体的分类任务有关……如果想让本文篇幅稍微短点,恐怕还是绕过这个话题比较好。还记得我们所用的数据集吗?有30类对吧?我们用这CrossEntropyLoss()损失函数来完成分类的任务。

请仔细阅读代码与注释。

loss_fn = nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(cnn.parameters(), lr=0.001, momentum=0.9)

for epoch in range(nepochs):  # loop over the dataset multiple times
    correct = 0          # number of examples predicted correctly (for accuracy)
    total = 0            # number of examples
    running_loss = 0.0   # accumulated loss (for mean loss)
    n = 0                # number of minibatches
    
    # 每个epoch,我们都取第一个batch来进行训练。
    dataiter = iter(train_loader) 
    inputs, labels = dataiter.next()
    
    # ================== main body=========================
     # 将梯度清空(每轮epoch都清空)
    optimizer.zero_grad()
    # Forward, backward, and update parameters
    outputs = cnn(inputs)
    loss = loss_fn(outputs, labels)
    loss.backward()
    optimizer.step()
    # =====================================================
    # accumulate loss
    running_loss += loss.item()
    n += 1
        
    # accumulate data for accuracy
    _, predicted = torch.max(outputs.data, 1)
    total += labels.size(0)    # add in the number of labels in this minibatch
    correct += (predicted == labels).sum().item()  # add in the number of correct labels
    
    # collect together statistics for this epoch
    ltrn = running_loss/n
    atrn = correct/total 
    
    print(f"epoch: {epoch} training loss: {ltrn: .3f} training accuracy: {atrn: .1%} ")

总结

可以看到,核心代码区区不过几行。你可能会问:这只是单个batch的呀?需要多个batch只需要一个循环就解决了!在下一篇《pytorch:如何从头开始训练一个CNN网络?(二)》中,我们还会学习到一些使你涨点的技巧。记住我们的学习哲学:

我们在这里只是工程导向,并不详细阐述背后原理。

你可能感兴趣的:(深度学习,cnn,pytorch)