本赛题数据为图像数据,因此采用的库需要完成对图像的读取,常见的有Pillow和OpenCV。
Pillow是Python图像处理函数库(PIL)的一个分支,提供常见的图像读取和处理的操作,可以与notebook无缝集成,是应用比较广泛的库。
from PIL import Image # 导入Pillow库
im = Image.open('cat.jpg') # 读取图片
# 应用模糊滤镜
im2 = im.filter(ImageFilter.BLUR)
im2.save('blur.jpg','jpeg')
# 按比例缩小图像
im3 = im.thumbnail((w//2,h//2))
im3.save('thumbnail.jpg','jpeg')
上面展示了部分Pillow的基本操作,还有很多其他的操作,Pillow是图像处理的必备库,可参考官方文档:https://pillow.readthedocs.io/en/stable/
OpenCV 是一个跨平台的计算机视觉库,最早由Intel开源得来,拥有众多的计算机视觉、数字图像处理和机器视觉等功能。在功能上比Pillow强大许多,学习成本也高很多。
import cv2 # 导入OpenCV库
img = cv2.imread('cat.jpg') # 读取图像
img = cv2.cvtColor(img,cv2.COLOR_BGR2RGB) # OpenCV 默认颜色通道顺序是BRG,转换到RGB
img = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY) # 转换为灰度图
# Canny边缘检测
edges = cv2.Canny(img,30,70)
cv2.imwrite('canny.jpg',edges)
OpenCV包含了众多的图像处理的功能,只要能想到的与图像相关的操作都有,此外还内置了很多图像特征处理算法,如关键点检测、边缘检测、直线检测等。
OpenCV官网:https://opencv.org/
OpenCV Github:https://github.com/opencv/opencv
OpenCV扩展算法库:https://github.com/opencv/opencv_contrib
在深度学习模型的训练过程中,数据扩增是必不可少的环节,现有深度学习的参数非常多,一般的模型可训练的参数量基本都是万到百万级别,而训练集样本的数量又很难这么多,因此引入了数据扩增的思路。它可以增加训练集的样本,同时也可以有效缓解模型过拟合的情况,也可以给模型带来更强的泛化能力。
常见的数据扩增方法有:
方法 | 功能 |
---|---|
transforms.CenterCrop | 对图片中心进行裁剪 |
transforms.ColorJitter | 对图像颜色的对比度,饱和度和零度进行变换 |
transforms.FiveCrop | 对图像四个角和中心进行裁剪得到五分图像 |
transforms.Grayscale | 对图像进行灰度变换 |
transforms.Pad | 使用固定值进行像素填充 |
transforms.RandomAffine | 随机仿射变换 |
transforms.RandomCrop | 随机区域裁剪 |
transforms.RandomHorizontalFlip | 随机水平翻转 |
transforms.RandomRotation | 随机旋转 |
transforms.RandomVerticalFlip | 随机垂直翻转 |
本次赛题是对字符进行识别,所以用不到翻转操作,会产生歧义。
常用的数据扩增库:
torchvision:pytorch提供的官方库,速度中等;
imgaug、albumentations都是常用的第三方数据扩增库,速度较快。
在Pytorch中,数据通过Dataset进行封装,并通过Dataloader进行并行读取,之所以还要用Dataloader是因为这两个不同的概念,是为了实现不同的功能。
Dataset:对数据集的封装,提供索引方式对数据样本进行读取;
Dataloader:对Dataset进行封装,提供批量读取的迭代读取。
import os,sys,glob,shutil,json
import cv2
from PIL import Image
import numpy as np
import torch
from torch.utils.data.dataset import Dataset
import torchvision.transforms as transforms
class SVHNDataset(Dataset):
def __init__(self,img_path,img_label,transform=None):
self.img_path=img_path
self.img_label=img_label
if transform is not None:
self.transform=transform
else:
self.transform=None
def __getitem__(self,index):
img=Image.open(self.img_path[index]).convert('RGB')
if self.transform is not None:
img=self.transform(img)
#原始SVHN中类别10为数字0
lbl=np.array(self.img_label[index],dtype=np.int)
lbl=list(lbl)+(5-len(lbl))*[10]
return img,torch.from_numpy(np.array(lbl[:5]))
def __len__(self):
return len(self.img_path)
train_path=glob.glob('..\mchar_train\*.png')
train_path.sort()
train_json=json.load(open('..\mchar_train.json'))
train_label=[train_json[x]['label'] for x in train_json]
train_loader = torch.utils.data.DataLoader(
SVHNDataset(train_path,train_label,
transforms.Compose([
#缩放到固定尺寸
transforms.Resize((64,128)),
# 随机颜⾊色变换
transforms.ColorJitter(0.3, 0.3, 0.2),
# 加⼊入随机旋转
transforms.RandomRotation(5),
# 将图⽚片转换为pytorch 的tesntor
transforms.ToTensor(),
# 对图像像素进⾏行行归⼀一化
transforms.Normalize([0.485,0.456,0.406],[0.229,0.224,0.225])
])),
batch_size=10,#每批样本个数
shuffle=False,#是否打乱顺序
num_workers=0,#读取数据线程个数
)
for data in train_loader:
break
在加入Dataloader后,数据按照批次获取,每批次调用Dataset读取单个样本进行拼接,此时data的格式为:
torch.Size([10,3,64,128])
torch.Size([10,6])
前者为图像文件,为batchsizechanelheight*width次序,后者为字符标签。
通过本次任务,我对数据读取进行了详细的学习,并了解了常见的数据扩增方法和使用,最后使用Pytorch框架对数据进行读取。但还是在代码的理解上不够熟悉,希望能在后面的学习中得到提高。