原教程:计算机视觉实践(街景字符编码识别) datawhalechina/team-learning · GitHub
由于赛题数据是图像数据,赛题的任务是识别图像中的字符。因此我们首先需要完成对数据的读取操作,在Python中有很多库可以完成数据读取的操作,比较常见的有Pillow和OpenCV。
Pillow是Python图像处理函式库PIL的一个分支。
Pillow提供了常见的图像读取和处理的操作,而且可以与ipython notebook无缝集成,是应用比较广泛的库。
官方文档:Pillow — Pillow (PIL Fork) 7.1.2 documentation
# 导入Pillow库
from PIL import Image
# 读取图片
im = Image.open('cat.jpg')
PIL库的ImageFilter类提供了过滤图像的方法,共10种方法如下:
方法 | 表示描述 |
---|---|
ImageFiter.BLUR | 图像的模糊效果 |
ImageFilter.CONTOUR | 图像的轮廓效果 |
ImageFilter.DETAIL | 图像的细节效果 |
ImageFilter.EDGE ENHANCE | 图像的边界加强效果 |
ImageFilter.EDGE ENHANCE MORE | 图像的阈值边界加强效果 |
ImageFilter.EMBOSS | 图像的浮雕效果 |
ImageFilter.FIND EDGES | 图像的边界效果 |
ImageFilter.SMOOTH | 图像的平滑效果 |
ImageFilter.SMOOTH MORE | 图像的阈值平滑效果 |
ImageFilter. SHARPEN | 图像的锐化效果 |
# 导入模糊库
from PIL import ImageFilter
# 应用模糊滤镜:
im1 = im.filter(ImageFilter.BLUR)
im1.save('blur.jpg', 'jpeg')
结果:
PIL库的ImageEnhance类提供了更高级的图像增强需求,它提供了调整色彩度、亮度、对比度、锐化等功能。方法如下:
方法 | 表示描述 |
---|---|
ImageEnhance. enhance(factor) | 对选择属性的数值增强factor倍 |
ImageEnhance.Color(im) | 调整图像的颜色平衡 |
ImageEnhance.Contrast(im) | 调整图像的对比度 |
ImageEnhance .Brightness(im) | 调整图像的亮度 |
ImageEnhance.Sharpness(im) | 调整图像的锐度 |
# 导入增强库
from PIL import ImageEnhance
# 增强1.8倍对比度
im11 = ImageEnhance.Contrast(im).enhance(1.8)
im11.save('enhanceContrast.jpg', 'jpeg')
# 提取原图像尺寸(单位:像素)
w,h = im.size
# 缩图(长和宽都缩小到原来的1/2)
# thumbnail
im2 = Image.open('cat.jpg')
im2.thumbnail((w//2, h//2))
im2.save('thumbnail.jpg', 'jpeg')
# resize
im22 = im.resize((w//2, h//2))
im22.save('resize.jpg', 'jpeg')
# (逆时针)旋转90度
im3 = im.rotate(90)
im3.save('rotate.jpg', 'jpeg')
OpenCV是一个跨平台的计算机视觉库,最早由Intel开源得来。OpenCV发展的非常早,拥有众多的计算机视觉、数字图像处理和机器视觉等功能。OpenCV在功能上比Pillow更加强大很多,学习成本也高很多。
部分官方文档:
OpenCV 官网
OpenCV Github
OpenCV 扩展算法库
以下只介绍部分与pillow不同的功能,关于opencv的模糊等操作可参考我之前写过的论文:
可视化_nanashi_F的博客-CSDN博客
# 导入Opencv库
import cv2
img = cv2.imread('cat.jpg')
# Opencv默认颜色通道顺序是BRG,转换为灰度图像
img1 = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
cv2.imwrite('gray.jpg',img1)
# Canny边缘检测
edges = cv2.Canny(img1, 30, 70)
cv2.imwrite('canny.jpg', edges)
在深度学习中数据扩增方法非常重要,数据扩增可以增加训练集的样本,同时也可以有效缓解模型过拟合的情况,也可以给模型带来的更强的泛化能力。
在深度学习模型的训练过程中,数据扩增是必不可少的环节。原因有二:
数据扩增方法有很多:
从颜色空间、尺度空间到样本空间,同时根据不同任务数据扩增都有相应的区别。
对于图像分类,数据扩增一般不会改变标签;
对于物体检测,数据扩增会改变物体坐标位置;
对于图像分割,数据扩增会改变像素标签。
在常见的数据扩增方法中,一般会从图像颜色、尺寸、形态、空间和像素等角度进行变换。当然不同的数据扩增方法可以自由进行组合,得到更加丰富的数据扩增方法。
以torchvision为例,常见的数据扩增方法包括:
方法 | 描述 |
---|---|
transforms.CenterCrop | 对图片中心进行裁剪 |
transforms.ColorJitter | 对图像颜色的对比度、饱和度和零度进行变换 |
transforms.FiveCrop | 对图像四个角和中心进行裁剪得到五分图像 |
transforms.Grayscale | 对图像进行灰度变换 |
transforms.Pad | 使用固定值进行像素填充 |
transforms.RandomAffine | 随机仿射变换 |
transforms.RandomCrop | 随机区域裁剪 |
transforms.RandomHorizontalFlip | 随机水平翻转 |
transforms.RandomRotation | 随机旋转 |
transforms.RandomVerticalFlip | 随机垂直翻转 |
在本次赛题中,赛题任务是需要对图像中的字符进行识别,因此对于字符图片并不能进行翻转操作。比如字符6经过水平翻转就变成了字符9,会改变字符原本的含义。
torchvision
pytorch官方提供的数据扩增库,提供了基本的数据数据扩增方法,可以无缝与torch进行集成;但数据扩增方法种类较少,且速度中等
imgaug
imgaug是常用的第三方数据扩增库,提供了多样的数据扩增方法,且组合起来非常方便,速度较快
albumentations
是常用的第三方数据扩增库,提供了多样的数据扩增方法,对图像分类、语义分割、物体检测和关键点检测都支持,速度较快
由于本次赛题我们使用Pytorch框架讲解具体的解决方案,接下来将是解决赛题的第一步使用Pytorch读取赛题数据。
在Pytorch中数据是通过Dataset进行封装,并通过DataLoder进行并行读取。所以我们只需要重载一下数据读取的逻辑就可以完成数据的读取。
import os, sys, glob, shutil, json
import cv2
from PIL import Image
import numpy as np
import torch
from torch.utils.data.dataset import Dataset
import torchvision.transforms as transforms
class SVHNDataset(Dataset):
def __init__(self, img_path, img_label, transform = None):
"""
初始化类,提取文件路径、标签及是否进行数据扩增作为该对象的基本参数
"""
self.img_path = img_path
self.img_label = img_label
if transform is not None:
self.transform = transform
else:
self.transform = None
def __getitem__(self, index):
"""
定义索引
"""
img = Image.open(self.img_path[index]).convert('RGB')
if self.transform is not None:
img = self.transform(img)
# 类别10为数字0
lbl = np.array(self.img_label[index], dtype=np.int)
lbl = list(lbl) + (5 - len(lbl)) * [10]
return img, torch.from_numpy(np.array(lbl[:5]))
def __len__(self):
"""
定义长度
"""
return len(self.img_path)
train_path = glob.glob('../input/train/*.png')
train_path.sort()
train_json = json.load(open('../input/train.json'))
train_label = [train_json[x]['label'] for x in train_json]
data = SVHNDataset(train_path, train_label,
transforms.Compose([
# 缩放到固定尺寸
transforms.Resize((64, 128)),
# 随机颜色变换
transforms.ColorJitter(0.2, 0.2, 0.2),
# 加入随机旋转
transforms.RandomRotation(5),
# 将图片转换为pytorch 的tesntor
# transforms.ToTensor(),
# 对图像像素进行归一化
# transforms.Normalize([0.485,0.456,0.406],[0.229,0.224,0.225])
]))
train_loader = torch.utils.data.DataLoader(
SVHNDataset(train_path, train_label,
transforms.Compose([
transforms.Resize((64, 128)),
transforms.ColorJitter(0.3, 0.3, 0.2),
transforms.RandomRotation(5),
transforms.ToTensor(),
transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
])),
batch_size=10, # 每批样本个数
shuffle=False, # 是否打乱顺序
num_workers=10, # 读取的线程个数
)
for data in train_loader:
break
在加入DataLoder后,数据按照批次获取,每批次调用Dataset读取单个样本进行拼接。此时data的格式为:
torch.Size([10, 3, 64, 128]), torch.Size([10, 6])
前者为图像文件,为batchsize * chanel * height * width次序;后者为字符标签。