DataWhale 零基础入门CV赛事-街景字符识别数据读取与数据扩增

目录

1、数据读取

2、数据增强

3、Pytorch的dataloader导入库方法


1、数据读取

python中数据读取的库有很多中,其中比较经典的是Scipy、PIL、Opencv、Skimage等等。

针对我们要做的赛题数据是图像数据,赛题的任务是识别图像中的字符。因此我们首先需要完成对数据的读取操作,对于上面介绍的库,其中Scipy可以通过

Scipy.misc.imread实现,这里读取的数据的shape为[w,h,c],与matlab的imread大同小异。

PIL.Image.open实现不过值得注意的是这里读取的数据类型将会是PIL格式无法进行操作像素,但是方便的是PIL可以调用Pytorch的Transform内的库用于随机裁剪,随机翻转等操作。其他的如果需要转换为PIL格式可以通过fromnumpy函数进行数据格式的转换。

OpenCV读取的也是imread不过值得注意的是这里读取的数据是BGR通道的与我们正常图像的RGB不通过可以通过cvtColor进行转换为RGB、GRAY、HSL等格式

Skimage里面也可以进行读取不过大部分用的Skimage.compare.compare_psnr,Skimage.compare.compare_ssim等计算的函数

当然这些图像处理库还包含了很多处理的操作。比如下图的PIL

DataWhale 零基础入门CV赛事-街景字符识别数据读取与数据扩增_第1张图片

其实这些库函数都会有各自的官方说明文档,会对每个API进行说明解释,如果感兴趣的话还可以自己研究其底层python实现的代码,都在python安装目录下的site-package内。Pillow的官方文档:https://pillow.readthedocs.io/en/stable/

DataWhale 零基础入门CV赛事-街景字符识别数据读取与数据扩增_第2张图片

值得注意的是,OpenCV功能极其强大,OpenCV包含了众多的图像处理的功能,OpenCV包含了你能想得到的只要与图像相关的操作。此外OpenCV还内置了很多的图像特征处理算法,如关键点检测、边缘检测和直线检测等。
OpenCV官网:https://opencv.org/
OpenCV Github:https://github.com/opencv/opencv
OpenCV 扩展算法库:https://github.com/opencv/opencv_contrib

2、数据增强

在深度学习中数据增强方法非常重要,数据增强可以增加训练集的样本,同时也可以有效缓解模型过拟合的情况,也可以给模型带来的更强的泛化能力。

在深度学习模型的训练过程中,数据增强是必不可少的环节。现有深度学习的参数非常多,一般的模型可训练的参数量基本上都是万到百万级别,而训练集样本的数量很难有这么多。
其次数据增强可以扩展样本空间,假设现在的分类模型需要对汽车进行分类,左边的是汽车A,右边为汽车B。如果不使用任何数据扩增方法,深度学习模型会从汽车车头的角度来进行判别,而不是汽车具体的区别。

数据增强方法有很多:从颜色空间、尺度空间到样本空间,同时根据不同任务数据增强都有相应的区别。
对于图像分类,数据扩增一般不会改变标签;对于物体检测,数据增强会改变物体坐标位置;对于图像分割,数据增强会改变像素标签。

常见的数据增强方法

在常见的数据增强方法中,一般会从图像颜色、尺寸、形态、空间和像素等角度进行变换。当然不同的数据增强方法可以自由进行组合,得到更加丰富的数据增强方法。

以torchvision为例,常见的数据增强方法包括:

  • transforms.CenterCrop 对图片中心进行裁剪
  • transforms.ColorJitter 对图像颜色的对比度、饱和度和零度进行变换
  • transforms.FiveCrop 对图像四个角和中心进行裁剪得到五分图像
  • transforms.Grayscale 对图像进行灰度变换
  • transforms.Pad 使用固定值进行像素填充
  • transforms.RandomAffine 随机仿射变换
  • transforms.RandomCrop 随机区域裁剪
  • transforms.RandomHorizontalFlip 随机水平翻转
  • transforms.RandomRotation 随机旋转
  • transforms.RandomVerticalFlip 随机垂直翻转

常用的数据扩增库

torchvision

https://github.com/pytorch/vision
pytorch官方提供的数据扩增库,提供了基本的数据数据扩增方法,可以无缝与torch进行集成;但数据扩增方法种类较少,且速度中等;

imgaug

https://github.com/aleju/imgaug
imgaug是常用的第三方数据扩增库,提供了多样的数据扩增方法,且组合起来非常方便,速度较快;

albumentations

https://albumentations.readthedocs.io
是常用的第三方数据扩增库,提供了多样的数据扩增方法,对图像分类、语义分割、物体检测和关键点检测都支持,速度较快。

3、Pytorch的dataloader导入库方法

在Pytorch中数据是通过Dataset进行封装,并通过DataLoder进行并行读取。所以我们只需要重载一下数据读取的逻辑就可以完成数据的读取。这里的Dataset类可以自定义,主要是获取到filepath的list然后通过对该类__getitem__(self,idx)进行重定义即可。

import os, sys, glob, shutil, json
import cv2

from PIL import Image
import numpy as np

import torch
from torch.utils.data.dataset import Dataset
import torchvision.transforms as transforms

class SVHNDataset(Dataset):
    def __init__(self, img_path, img_label, transform=None):
        self.img_path = img_path
        self.img_label = img_label 
        if transform is not None:
            self.transform = transform
        else:
            self.transform = None

    def __getitem__(self, index):
        img = Image.open(self.img_path[index]).convert('RGB')

        if self.transform is not None:
            img = self.transform(img)
        
        # 原始SVHN中类别10为数字0
        lbl = np.array(self.img_label[index], dtype=np.int)
        lbl = list(lbl)  + (5 - len(lbl)) * [10]
        
        return img, torch.from_numpy(np.array(lbl[:5]))

    def __len__(self):
        return len(self.img_path)

train_path = glob.glob('../input/train/*.png')
train_path.sort()
train_json = json.load(open('../input/train.json'))
train_label = [train_json[x]['label'] for x in train_json]

data = SVHNDataset(train_path, train_label,
          transforms.Compose([
              # 缩放到固定尺寸
              transforms.Resize((64, 128)),

              # 随机颜色变换
              transforms.ColorJitter(0.2, 0.2, 0.2),

              # 加入随机旋转
              transforms.RandomRotation(5),

              # 将图片转换为pytorch 的tesntor
              # transforms.ToTensor(),

              # 对图像像素进行归一化
              # transforms.Normalize([0.485,0.456,0.406],[0.229,0.224,0.225])
            ]))
  • Dataset:对数据集的封装,提供索引方式的对数据样本进行读取
  • DataLoder:对Dataset进行封装,提供批量读取的迭代读取

你可能感兴趣的:(深度学习)