代码下载地址:点我下载
模型在训练过程中会自动显示训练进度,如果您的pytorch是CPU版本的,代码会自动选择CPU训练,如果有cuda,则会选择GPU训练。
CNN文件夹是用来保存卷积神经网络模型代码,其中model.py,my_dataset.py是被自动调用的,都不需要运行
FC文件夹是用来保存全连接神经网络模型代码,其中model.py,my_dataset.py是被自动调用的,都不需要运行
dataset文件夹是保存MNIST官方数据集的文件夹,不需改动
images文件夹是用来保存REAEDME.md文件中引用的图片的,不需改动
my_mnist_dateset文件夹是用来保存自己手写数字图片与标签文件的,自己手写的图片请放在my_mnist_dateset/classify对应的文件夹中
make_ours_dataset.py文件是用来处理my_mnist_dateset文件夹下的图像并生成标签用的
requirements.txt文件是环境配置文件
如果您用Windows系统的pycharm,可以下载zip文件后解压,然后打开这个目录。在pycharm的Terminal中输入以下命令行安装环境。
cd MNIST-pytorch-master
pip install -r requirements.txt
如果您用Linux,可以输入以下命令行完成项目下载和环境配置
git clone [email protected]:martin64/mnist-pytorch.git
cd MNIST-pytorch
pip install -r requirements.txt
运行CNN和FC文件夹下的train.py文件,会分别选择对应的神经网络进行训练。训练后生成**.pth和.csv**两个文件,前者保存训练好的模型权重,后者保存训练过程中准确率和损失数据。
如果您是用CPU训练的,文件会保存在CPU文件夹下。如果是用GPU进行训练,文件会保存在GPU文件夹下。
运行CNN文件下的plot.py文件可以绘制CNN训练和验证阶段的准确率和损失曲线。
运行FC文件下的plot.py文件可以绘制FC训练和验证阶段的准确率和损失曲线。
注意:运行plot文件会提醒您选择“CPU or GPU",输入"CPU"会绘制CPU训练曲线,输入"GPU"会绘制GPU训练曲线。
在my_mnist_dateset/classify文件夹下的10个文件夹下放入对应的手写数字图片,图片长和宽随意,注意图片要是白底黑字的。
运行make_ours_dataset.py,它会自动将白底黑字图片转换为黑底白字,并自动生成标签。
如果要测试训练好的CNN模型,请运行CNN文件夹下的trained_model_test.py
如果要测试训练好的FC模型,请运行FC文件下的trained_model_test.py
准确率参考:
model | CPU | GPU | epoch |
---|---|---|---|
CNN | 99% | 99% | 30 |
FC | 95% | 95% | 30 |
trained-model | CPU | GPU | Number of pictures |
---|---|---|---|
CNN | 85% | 85% | 10 |
FC | 45% | 50% | 10 |
MNIST数据集来自美国国家标准与技术研究所,National Institute of Standards and Technology(NIST). 训练集由250个不同人手写的数字构成,其中50%是高中学生,50%来自人户普查局的工作人员。测试集也是同样比例的手写数字数据。
MNIST数据集分为2个部分,分别含有6000张训练图片和1000张测试图片。
每一张图片图片的大小都是28×28,而且图片的背景色为黑色,字迹为白色。原始图像如下图:
如果是用pytorch,我们可以用下面的代码来下载MNIST数据集。
from torchvision import datasets
#训练数据集,torchvision中封装了mnist数据集的下载方式,调用下面函数就会自动下载
train_dataset = datasets.MNIST(root='../dataset/mnist/', train=True, download=True)
#测试数据集
test_dataset = datasets.MNIST(root='../dataset/mnist/', train=False, download=True)
下载后,在你当前项目下的相对路径dataset文件夹下就会有mnist数据集的下载文件了。
直接下载下来的数据是无法通过解压或者应用程序打开的,因为这些文件不是任何标准的图像格式而是以字节的形式存储的,如果你想看具体的MNIST数据集图像,可以参考下面的链接:
MNIST数据集读取
全连接神经网络特点是在隐藏层的每一层中,上一层的每一个神经元都与下一层所有神经元相连。一个神经网络的示例如下:
神经网络的训练主要是前向传播后计算损失函数,然后反向传播,依次更新权重。
MNIST数据集中的图像像素值在0~255之间,但是神经网络希望输入的数据介于0-1之间,并且服从正态分布,所以我们要用transform将输入数据进行标准化。
为什么要进行标准化(Normalization)
transform = transforms.Compose([
transforms.ToTensor(),
transforms.Normalize((0.1307,), (0.3081,))
])
MNIST数据集中的图片都是28×28大小的,而且是灰度图。而全连接神经网络的输入要是一个行向量,所以我们要把28×28的矩阵转换成28×28=764的行向量,作为神经网络的输入。
x = x.view(-1, 784)
后面的依次是512,256,128,64,的线性层,由于我们是在做一个多分类问题,而且预测的值是0-9中的一个,所以最后的输出应该是一个1×10的行向量。具体网络结构如下图:
全连接神经网络模型代码如下:
class Net(torch.nn.Module):
def __init__(self):
super(Net, self).__init__();
self.l1 = torch.nn.Linear(784, 512);
self.l2 = torch.nn.Linear(512, 256);
self.l3 = torch.nn.Linear(256, 128);
self.l4 = torch.nn.Linear(128, 64);
self.l5 = torch.nn.Linear(64, 10);
self.relu = torch.nn.ReLU();
def forward(self, x):
x = x.view(-1, 784);
x = self.l1(x);
x = self.relu(x);
x = self.l2(x);
x = self.relu(x);
x = self.l3(x);
x = self.relu(x);
x = self.l4(x);
x = self.relu(x);
x = self.l5(x);
return x;
只要运行项目中的MNIST/FC/train.py代码就能训练神经网络了。
我们知道对于多分类问题,是用softmax函数,然后用one-hot编码来计算loss,但是上面的神经网络forward函数中并没有出现softmax函数,原因是在下面这行代码中,CrossEntropyLoss已经包含了softmax函数。
C r o s s E n t r o p y L o s s = L o g S o f t m a x + N L L L o s s . CrossEntropyLoss=LogSoftmax+NLLLoss. CrossEntropyLoss=LogSoftmax+NLLLoss.
criterion = torch.nn.CrossEntropyLoss();
也就是说使用CrossEntropyLoss最后一层(线性层)是不需要做其他变化的;使用NLLLoss之前,需要对最后一层(线性层)先进行SoftMax处理,再进行log操作。
训练完成后,我们可以保存训练好的模型和训练过程中的数据,所以在train.py中最后有以下代码:
torch.save(model.state_dict(), "./{}/FC.pth".format(device_type))
dataframe.to_csv(r"./{}/loss&acc.csv".format(device_type))
数据下载,训练,模型保存都在MNIST/FC/train.py代码中实现了,所以不需要改动任何代码,只要运行它就行了。
通过上一节我们知道,全连接神经网络需要将输入的图像数据矩阵转换成一个行向量,但是这样做有缺点,那就是:
图像的数据是一个矩阵,也就是一个像素点的和它所在位置的上下左右像素点有很大的相关性,将像素矩阵flatten后,左右的位置关系保留了,但是上下的位置关系却被破坏了。
卷积神经网络和全连接神经网络的不同之处在于,卷积神经网络的输入是图像的原始矩阵,这样保留了图像的上下左右位置关系。
关于CNN神经网络入门,我推荐知乎的一个优秀答主蒋竺波,下面是他的CNN入门文章,大家也可以去他的主页查看。
什么是卷积(Convolution)
卷积层是如何提取特征的
什么是采样层(pooling)
什么是激活函数(Activation Function)
什么是全连接层(Full Connected Layer)
什么是Softmax
关于损失函数:
什么是交叉熵(Cross Entropy)
过程和全连接神经网络一样,就不介绍了
关于MNIST的卷积神经网络是这样设计的,
第一层是一个卷积层,输入通道是1,输出通道是10,卷积核大小是5×5。输入维度是1×28×28,输出维度是10×24×24。
第二层是一个下采样层,采样核大小是2×2,输入维度是10×24×24,输出维度是10×12×12。
第三层是一个卷积层,输入通道是10,输出通道是20,卷积核大小是5×5。输入维度是10×12×12,输出维度是20×8×8。
第四层是一个下采样层,采样核大小是2×2,输入维度是20×8×8,输出维度是20×4×4。
第五层是flatten层,大小为320
第六层是一个全连接层
整个神经网络的结构如下图所示(全连接神经网络部分由于输入320个输入太多,所以用16代替了)。
卷积神经网络模型的代码:
class Net(torch.nn.Module):
def __init__(self):
super(Net, self).__init__();
self.conv1=torch.nn.Conv2d(1,10,kernel_size=5);
self.conv2=torch.nn.Conv2d(10,20,kernel_size=5);
self.pooling=torch.nn.MaxPool2d(2);
self.fc=torch.nn.Linear(320,10);
self.relu=torch.nn.ReLU();
def forward(self, x):
batch_size=x.size(0);
x=self.conv1(x);
x=self.pooling(x);
x=self.relu(x);
x = self.conv2(x);
x = self.pooling(x);
x = self.relu(x);
x=x.view(batch_size,-1);
x=self.fc(x);
return x;
只要运行CNN/train.py就可以训练卷积神经网络了,然后会在CNN文件下生成一个cnn_trained_model.pth,这样就保存好了训练好的模型。
运行 CNN或者FC文件夹下的plot.py文件就能绘制训练过程中准确率和损失的变化曲线。
python制作自己的数据集
my_mnist_dateset文件夹下有三个文件夹,classify、images、labels。
整个目录树如图所示。
打开画板,写一些数字,然后用图片编辑软件裁剪图片,使得数字大概在裁剪图片的中心,然后在my_mnist_dateset/classify文件夹下的10个文件夹下放入对应的手写数字图片。
我手写的10个数字如下:
运行make_ours_dataset.py,这样就会把my_mnist_dateset/classify文件下的图片转换为黑底白字
同时,在labels文件夹下会自动生成labels.txt文件,里面保存了图片名称和对应的标签,如下图所示:
在训练神模型那一节,我们训练了两个神经网络,FC和CNN,并保存了训练好的模型,也就是CNN.pth与FC.pth两个文件,这两个文件保留了我们训练好模型的参数。
接下来我们要加载这两个训练好的模型,测试自己的数据集。
首先,和前面载入MNIST数据集一样,对于自己的数据集,也要先标准化。
my_dataset.py继承了Dataset,它能载入my_mnist_dateset文件夹下的E图片与标签,它是被train.py自动调用的,所以不用运行它。
代码如下:
import torch
import os
from PIL import Image
from torch.utils.data import Dataset
class MyMnistDataset(Dataset):
def __init__(self, root, transform):
self.myMnistPath = root
self.imagesData = []
self.labelsData = []
self.labelsDict = {}
self.trans = transform
self.loadLabelsDate()
self.loadImageData()
# 读取标签txt文件,并生成字典
def loadLabelsDate(self):
labelsPath = os.path.join(self.myMnistPath, "labels", "labels.txt")
f = open(labelsPath)
lines = f.readlines()
for line in lines:
name = line.split(' ')[0]
label = line.split(' ')[1]
self.labelsDict[name] = int(label)
# 读取手写图片数据,并将图片数据和对应的标签组合在一起
def loadImageData(self):
imagesFolderPath = os.path.join(self.myMnistPath, 'images')
imageFiles = os.listdir(imagesFolderPath)
for imageName in imageFiles:
imagePath = os.path.join(imagesFolderPath, imageName)
image = Image.open(imagePath)
grayImage = image.convert("L")
imageTensor = self.trans(grayImage)
self.imagesData.append(imageTensor)
self.labelsData.append(self.labelsDict[imageName])
self.labelsData = torch.Tensor(self.labelsData)
# 重写魔法函数
def __getitem__(self, index):
return self.imagesData[index], self.labelsData[index]
# 重写魔法函数
def __len__(self):
return len(self.labelsData)
本项目是在B站上学习 刘二大人 的课程 《Pytorch深度学习实践》后完善做成的,相关课程链接如下:
https://www.bilibili.com/video/BV1Y7411d7Ys?from=search&seid=5291537098843647660
两外,CSDN博主 错错莫 将课程中的例子用代码实现了出来,相关链接如下:
https://blog.csdn.net/bit452/category_10569531.html