Pytorch简单使用MINIST数据集

文章目录

  • 简述
  • 获取数据集
  • 小批量读取

简述

在正式介绍softmax回归的实现前我们先引入一个多类图像分类数据集。它常被使用,用于我们观察比较算法之间在模型精度和计算效率上的区别。图像分类数据集中最常用的是手写数字识别数据集MNIST[1]。但大部分模型在MNIST上的分类精度都超过了95%。为了更直观地观察算法之间的差异,我们将使用一个图像内容更加复杂的数据集Fashion-MNIST[2](这个数据集也比较小,只有几十M,没有GPU的电脑也能吃得消)。

我们将使用torchvision包,它是服务于PyTorch深度学习框架的,主要用来构建计算机视觉模型。torchvision主要由以下几部分构成:

  • torchvision.datasets: 一些加载数据的函数及常用的数据集接口;
  • torchvision.models: 包含常用的模型结构(含预训练模型).例如AlexNet,VGG,ResNet等;
  • torchvision.transforms: 常用的图片变换,例如裁剪,旋转等;
  • torchvision.utils: 其他的一些有用的方法.

获取数据集

需要导入的包:

import torch
import torchvision
import torchvision.transforms as transforms
import matplotlib.pyplot as plt
import time
import sys
sys.path.append("..") # 为了导入上层目录的d2lzh_pytorch
import d2lzh_pytorch as d2l

通过torchvision.datases来下载数据集:

mnist_train = torchvision.datasets.FashionMNIST(root='Datasets/FashionMNIST', train=True, download=True, transform=transforms.ToTensor())
mnist_test = torchvision.datasets.FashionMNIST(root='Datasets/FashionMNIST', train=False, download=True, transform=transforms.ToTensor())

在这里我们指定了参数transform = transforms.ToTensor()使所有数据转换为Tensor.如果不进行转换则返回的是PIL图片.transforms.ToTensor()将尺寸为(HWC)且数据位于[0,255]的PIL图片或者数据类型为np.uint8的Numpy数据转换为尺寸为(CHW)且数据类型为torch.float32且位于[0.0,1.0]的Tensor.

  • 注意: 由于像素值为0到255的整数,所以刚好是uint8所能表示的范围.包括transforms.ToTensor()在内的一些关于图片的函数就默认输入的是uint8类型.若不是,可能不会报错但可能得不到想要的结果.所以,如果使用像素值(0-255)表示图片数据,那么一律将其类型设置为uint8,避免不必要的bug
    上面代码中的mnist_train和mnist_test都是torch.utils.data.Dataset的子类,所以我们可以使用len()来获取该数据集的大小,还可以用下标来获取具体的一个样本.训练集中和测试集中的每个类别的图像数分别为6000和1000.因为有10个类别,所以训练集和测试集的样本数分别为60000和10000.
    我们可以通过下标来访问任意一个样本:
feature, label = mnist_train[0]
print(feature.shape, label)  # Channel x Height x Width

输出:

torch.Size([1, 28, 28]) tensor(9)

变量feature对应高和宽均为28像素的图像.由于我们使用了transforms.ToTensor().所以每个像素的数值为[0.0,1.0]的32位浮点数.需要注意的是,feature的尺寸是(CHW)的而不是(HWC).第一维是通道数,因为数据集中是灰度图像,所以通道数为1.后面二维分别是图像的高和宽.
Fashion-MNIST中一共包括10个类别,分别为t-shirt(T恤),trouser(裤子),pullover(套衫),dress(连衣裙),coat(外套),sandal(凉鞋),shirt(衬衫),sneaker(运动鞋),bag(包)和ankle boot(短靴).下面的函数可以将数值标签转化为文本标签.

def get_fashion_mnist_labels(labels):
    text_labels = ['t-shirt', 'trouser', 'pullover', 'dress', 'coat',
                   'sandal', 'shirt', 'sneaker', 'bag', 'ankle boot']
    return [text_labels[int(i)] for i in labels]

下面定义一个可以在一行里花出多张图像和对应标签的函数.

def show_fashion_mnist(images, labels):
    d2l.use_svg_display()
    # 这里的_表示我们忽略(不使用)的变量
    _, figs = plt.subplots(1, len(images), figsize=(12, 12))
    for f, img, lbl in zip(figs, images, labels):
        f.imshow(img.view((28, 28)).numpy())
        f.set_title(lbl)
        f.axes.get_xaxis().set_visible(False)
        f.axes.get_yaxis().set_visible(False)
    plt.show()

现在,我们看一下训练数据集中前10个样本的图像内容和文本标签.

X, y = [], []
for i in range(10):
    X.append(mnist_train[i][0])
    y.append(mnist_train[i][1])
show_fashion_mnist(X, get_fashion_mnist_labels(y))

在这里插入图片描述

小批量读取

在训练数据集上训练模型,并将训练好的模型在数据集上评价模型的表现.前面说过,mnist_train是torch.utils.data.Dataset的子类,所以我们可以将其传入torch.utils.data.DataLoader来创建一个读取小批量数据样本的DataLoader实例.
在实践中,数据读取经常是训练的性能瓶颈,特别当模型比较简单或者计算硬件性能比较高的时候.Pytorch的DataLoader中一个很方便的功能是允许使用多进程来加速数据读取.这里我们通过参数num_workers来设置4个进程读取数据.

batch_size = 256
if sys.platform.startswith('win'):
    num_workers = 0  # 0表示不用额外的进程来加速读取数据
else:
    num_workers = 4
train_iter = torch.utils.data.DataLoader(mnist_train, batch_size=batch_size, shuffle=True, num_workers=num_workers)
test_iter = torch.utils.data.DataLoader(mnist_test, batch_size=batch_size, shuffle=False, num_workers=num_workers)

我们将获取并读取Fashion-MNIST数据集的逻辑封装在d2lzh_pytorch.load_data_fashion_mnist函数中供后面使用.该函数将返回train_iter和test_iter两个变量.
最后我们查看读取一遍训练数据需要的时间。

start = time.time()
for X, y in train_iter:
    continue
print('%.2f sec' % (time.time() - start))
  • Fashion-MNIST是一个10类服饰分类数据集,之后章节里将使用它来检验不同算法的表现。
  • 我们将高和宽分别为hh和ww像素的图像的形状记为h×w或(h,w)。

你可能感兴趣的:(Pytorch,pytorch,python,深度学习)