来源:投稿 作者:阿克西
编辑:学姐
建议搭配视频学习↓
视频链接:https://ai.deepshare.net/detail/p_5df0ad9a09d37_qYqVmt85/6
数据增强又称为数据增广,数据扩增,它是对训练集进行变换,使训练集更丰富,从而让模型更具泛化能力。
看一下图片中的数据增强是怎么样的。上图是一张原始图片,对这张图片进行一系列的操作变换得到64张增强样本。64张图片中的第一张图片是对原始图片进行旋转,第二张图片是对原始图片进行颜色变换,第三张图片是进行镜像操作。
对图片进行一系列操作可以得到大量增强样本提供给模型进行训练,让模型见过更多的样本,从而提升模型的泛化能力,使得模型在验证集上的表现更好。本章学习具体的数据增强方法。
import os
BASE_DIR = os.path.dirname(os.path.abspath(__file__))
import numpy as np
import torch
import random
from torch.utils.data import DataLoader
import torchvision.transforms as transforms
from PIL import Image
from matplotlib import pyplot as plt
from tools.my_dataset import RMBDataset
# from tools.common_tools import set_seed, transform_invert
def set_seed(seed=1):
random.seed(seed)
np.random.seed(seed)
torch.manual_seed(seed)
torch.cuda.manual_seed(seed)
set_seed(1) # 设置随机种子
# 参数设置
MAX_EPOCH = 10
BATCH_SIZE = 1
LR = 0.01
log_interval = 10
val_interval = 1
transform_invert(),这个函数是用来对transform进行逆操作,使得我们可以观察到模型输入的数据是长什么样的。因为数据经过transfrom,转换为张量的形式,可能是一些浮点的数据,没有办法将这些数据进行可视化,因此需要一个transform_invert()函数,对transform进行逆操作,将张量的数据变换成img,这样就可以进行可视化。
这个函数接受一个img_和transform_train,返回PIL image,也就是可以直接plot将其可视化。
# 在训练部分被引用
# 传入两个参数img_和train_transform,返回PIL image,也就是可以直接plot将其格式化
def transform_invert(img_, transform_train):
"""
将data 进行反transfrom操作
:param img_: tensor
:param transform_train: torchvision.transforms
:return: PIL image
"""
# 对normalize进行反操作
if 'Normalize' in str(transform_train):
norm_transform = list(filter(lambda x: isinstance(x, transforms.Normalize),
transform_train.transforms))
mean = torch.tensor(norm_transform[0].mean,
dtype=img_.dtype,
device=img_.device)
std = torch.tensor(norm_transform[0].std,
dtype=img_.dtype,
device=img_.device)
# normalize是减去均值除于方差,因此反操作就是乘于方差再加上均值
img_.mul_(std[:, None, None]).add_(mean[:, None, None])
# 通道变换,C*H*W --> H*W*C,将channel放到最后面
img_ = img_.transpose(0, 2).transpose(0, 1)
# 将0-1尺度上的数据转换到0-255
if 'ToTensor' in str(transform_train) or img_.max() < 1:
img_ = img_.detach().numpy() * 255
# 将np_array的形式转换成PIL image
# 判断channel是3通道还是1通道,分别转换成RGB彩色图像和灰度图像
if img_.shape[2] == 3:
img_ = Image.fromarray(img_.astype('uint8')).convert('RGB')
elif img_.shape[2] == 1:
img_ = Image.fromarray(img_.astype('uint8').squeeze())
else:
raise Exception("Invalid img shape, expected 1 or 3 in axis 2, but got {}!"
.format(img_.shape[2]) )
# 返回图像就可以对图像进行plot,对图像进行可视化
return img_
# ============================ step 1/5 数据 ============================
split_dir = os.path.abspath(os.path.join("rmb_split"))
if not os.path.exists(split_dir):
raise Exception(r"数据 {} 不存在, 回到lesson-06\1_split_dataset.py生成数据".format(split_dir))
train_dir = os.path.join(split_dir, "train")
valid_dir = os.path.join(split_dir, "valid")
norm_mean = [0.485, 0.456, 0.406]
norm_std = [0.229, 0.224, 0.225]
train_transform = transforms.Compose([
transforms.Resize((224, 224)),
transforms.ToTensor(),
transforms.Normalize(norm_mean, norm_std),
])
# 构建MyDataset实例
train_data = RMBDataset(data_dir=train_dir, transform=train_transform)
valid_data = RMBDataset(data_dir=valid_dir, transform=valid_transform)
# 构建DataLoder
train_loader = DataLoader(dataset=train_data, batch_size=BATCH_SIZE, shuffle=True)
valid_loader = DataLoader(dataset=valid_data, batch_size=BATCH_SIZE)
transforms方法的演示还是采用人民币二分类训练的主代码,这里我们只关心数据模块以及训练模块中取出数据那一部分。
除2.4 transforms.FiveCrop与transforms.TenCrop外,下述代码均适用。
# ============================ step 5/5 训练 ============================
for epoch in range(MAX_EPOCH):
for i, data in enumerate(train_loader):
inputs, labels = data # B C H W
img_tensor = inputs[0, ...] # C H W
img = transform_invert(img_tensor, train_transform)
plt.imshow(img)
plt.show()
plt.pause(0.5)
plt.close()
# bs, ncrops, c, h, w = inputs.shape
# for n in range(ncrops):
# img_tensor = inputs[0, n, ...] # C H W
# img = transform_invert(img_tensor, train_transform)
# plt.imshow(img)
# plt.show()
# plt.pause(1)
以下主要针对1.4进行详细展开。
功能:从图像中心裁剪图片
size:所需裁剪图片尺寸
train_transform = transforms.Compose([
transforms.Resize((224, 224)),
# 1 CenterCrop
transforms.CenterCrop(196), # 512
transforms.ToTensor(),
transforms.Normalize(norm_mean, norm_std),
])
在transforms中,为了统一图片的尺寸,一开始会执行transforms.Resize((224,224)),把图片统一地缩放到 224 ∗ 224的尺寸大小。然后执行transforms.CenterCrop(196)操作,裁剪出来一个196大小的图片。假如把代码中的196改为512,大于224。执行debug操作,代码并没有报错,输出图片为(512, 512)大小的图片,对超出224的区域会自动填充为零的像素,也就是全黑的区域。
断点调试:
1、下面看代码中的transform.CenterCrop()函数,经过裁剪之后图像会变成什么样。首先设置断点,观察inputs的形状,(BATCH_SIZE, C, H, W):
2、对程序进行debug,代码停在之前打断点的位置,如下图所示。点击step over功能键,到达代码img_tensor = inputs[0, …] 位置。观察一下代码中data的形式。
3、点击console就会打开一个命令窗,如下图所示,这个命令窗的环境与当前代码调试的环境是完全一致的,可以在这个命令窗对变量进行更改或者查看。
现在查看inputs的形状,inputs的形状是一个[1,3,196,196]的形式。第一个维度是BITCH_SIZE,因为在代码开始设置了BATCH_SIZE=1,所以inputs中的第一个维度为1;第二个维度是channel,也就是通道,由于是rgb图像,通道的长度为3;第三维和第四位分别是图像的高和宽。
由于可视化图片是一个三通道的三维张量,所以需要对inputs进行索引操作,索引出第一块区域,也就是接下来的一句代码“img_tensor = inputs[0, …]”,这段代码的意思是取四维张量中的第一个三维张量,这样就把四维张量变为三维张量了,其顺序为 C ∗ H ∗ W。将得到的三维张量img输入到函数transform_invert()函数中进行逆变换,就返回可以可视化的img,然后将img进行plt操作,就得到上图的裁剪图片。
在debug之后,可以取消断点,将光标放置在plt.close() 代码处,反复执行run to cursor按键,可以查看不同图像。
功能:从图片中随机裁剪出尺寸为size的图片(位置随机裁剪)。
transforms.RandomCrop(size,
padding=None,
pad_if_needed=False,
fill=0,
padding_mode='constant')
size:所需裁剪图片尺寸
当为a时,上下左右均填充a个像素
当为(a, b)时,左右填充a个像素,上下填充b个像素
当为(a, b, c, d)时,左,上,右,下分别填充a,b,c,d
pad_if_need:若图像小于设定size,则填充
constant:像素值由fill参数设定
edge:像素值由图像边缘像素决定
reflect:镜像填充,最后一个像素不镜像,eg:对[1,2,3,4]进行2个像素的填充,左侧最后一个像素不镜像,忽略1,从左至右为2,3,镜像填充为[3,2,1,2,3,4]。同理,右侧忽略4,从右至左为3,2,最终填充为[3,2,1,2,3,4,3,2]
symmetric:镜像填充,最后一个像素镜像,eg:[1,2,3,4] [2,1,1,2,3,4,4,3],最后一个像素镜像,所以不会跳过1和4,分别从1和4开始进行镜像填充
fill:constant时,设置填充的像素值
下面通过代码观察RandomCrop是怎样对图像进行裁剪的。和前面一样,对图像进行统一的尺寸变换,缩放为(224,224)。
train_transform = transforms.Compose([
transforms.Resize((224, 224)),
# 2 RandomCrop
# 1)对上下左右均进行16像素的padding
transforms.RandomCrop(224, padding=16),
# 2)分别对左右、上下设置不同的填充,左右填充16,上下填充64
# transforms.RandomCrop(224, padding=(16, 64)),
# 3)设置fill参数,修改填充像素颜色
# transforms.RandomCrop(224, padding=16, fill=(255, 0, 0)),
# 4)当size大于图片原始尺寸的时候,pad_if_needed参数必须打开,否则会报错
# transforms.RandomCrop(512, pad_if_needed=True), # pad_if_needed=False
# 5)采用图片的边界值对图片进行填充
# transforms.RandomCrop(224, padding=64, padding_mode='edge'),
# 6)采用图片的镜像填充
# transforms.RandomCrop(224, padding=64, padding_mode='reflect'),
# transforms.RandomCrop(1024, padding=1024, padding_mode='symmetric'),
transforms.ToTensor(),
transforms.Normalize(norm_mean, norm_std),
])
1、对上下左右均进行16像素的padding。裁剪出来的图片左边和上边都有一块黑色的填充区域。为什么左边和上边没有呢?这是因为经过填充之后的图片的尺寸应该是224+16+16,比224大32个像素。在这个大的图片上进行(224,224)的随机选取,由于图像选取右下角的这一部分,所以左边和上边是没有黑色的填充区域的。
2、padding的第二种模型,分别对左右、上下设置不同的填充,左右填充16,上下填充64。可以看到左右的填充区域相比于上下是更小的。
3、可以看到填充的区域都是黑色,默认填充的像素是0,如果想设置的填充区域是红色,或者是其它的彩色图,就可以对fill这个参数进行设置,代码中对fill设置一个长度为3的tuple类型,3个元素分别对应的是RGB通道,比如设定(255, 0, 0),可以看一下其padding出来的颜色是红色的。
4、接下来看一下pad_if_needed参数,当size大于图片原始尺寸的时候,pad_if_needed参数必须打开,否则会报错。可以看到在超出图片的范围全部填充上像素值为0的像素点,也就是黑色的。
5、观察参数padding_mode的几种模式,padding_mode默认采用constant模式,在采用constant的时候,采用fill参数去设置填充的像素点的像素值。接下里看padding_mode的第二种模式,padding_mode=‘edge’,这种模式是采用图片的边界值对图片进行填充,设置padding的值大一点,padding=64,以便于更好地观察填充的效果。padding_mode='reflect',采用图片的镜像填充。当设置size与padding参数较大时,图像像印钞机填充。
padding_mode='symmetric’和padding_mode='reflect’功能相差不多,只是相差一个像素值点。
功能:随机大小、长宽比裁剪图片。
RandomResizedCrop(size,
scale=(0.08,1.0),
ratio=(3/4,4/3),
interpolation)
size:所需裁剪图片尺寸;
scale:随机裁剪面积比例,默认(0.08,1),0.08-1之间随机选取一个数
ratio:随机长宽比,默认(3/4,4/3),3/4到4/3之间随机选取一个数
PIL.Image.NEAREST:最近邻插值
PIL.Image.BILINEAR:双线性插值
PIL.Image.BICUBIC:双三次插值
train_transform = transforms.Compose([
transforms.Resize((224, 224)),
# 3 RandomResizedCrop
transforms.RandomResizedCrop(size=224, scale=(0.08, 0.1)),
# transforms.RandomResizedCrop(size=224, scale=(0.5, 0.5)),
transforms.ToTensor(),
transforms.Normalize(norm_mean, norm_std),
])
输出结果如上图所示,所得图片比原始图片小得多,这个比例是在scale=(0.08, 0.1)之间随机选取一个数作为裁剪图片面积得到的,之后再根据ratio长宽比设定图像的长和宽,裁剪得到一个图片。最后将裁剪得到图片resize到设定的size大小尺寸。
scale=(0.5, 0.5)表示采取一半的面积,然后再进行长宽比的缩放。
transforms.FiveCrop(size)
功能:在图像的左上角、右上角、左下角、右下角以及中心裁剪出尺寸为size的5张图片。
transforms.TenCrop(size,
vertical_flip=False)
功能:在图像的上下左右以及中心裁剪出尺寸为size的5张图片,在这五张图片上进行水平或者垂直镜像获得10张图片。
size:所需裁剪图片尺寸大小
vertical_flip:是否垂直翻转,True为垂直翻转,False为水平翻转
示例:
train_transform = transforms.Compose([
transforms.Resize((224, 224)),
# 4 FiveCrop
transforms.FiveCrop(112), # 直接操作会报错
transforms.Lambda(lambda crops: torch.stack([(transforms.ToTensor()(crop)) for crop in crops])),
# 5 TenCrop
# transforms.TenCrop(112, vertical_flip=False),
# transforms.Lambda(lambda crops: torch.stack([(transforms.ToTensor()(crop)) for crop in crops])),
# transforms.ToTensor(), # 上面进行了ToTensor,这里不再需要,否则会报错
# transforms.Normalize(norm_mean, norm_std),
])
由于FiveCrop()裁剪出来的是五张图片,返回的是一个tuple(元组),不能直接进行操作,当尝试运行代码时,会报错,查看报错信息:
报错为:pic should be PIL Image or ndarray. Got
这里使用到lambda方法,lambda是匿名函数,可以对FiveCrop()的输出进行一系列的变换,使其输出可以变换为代码可以执行的数据格式。看一下lambda匿名函数的功能:
transforms.Lambda(lambda crops: torch.stack([(transforms.ToTensor()(crop)) for crop in crops])),
lambda匿名函数代码中冒号之前的是函数的输入,冒号之后的整个语句是函数的返回值。
由于输入是一个tuple格式的数据,需要将tuple中每一张图片,将其拼接为张量的形式,所以代码中采用了torch.stack()的形式,在讲张量的操作的时候,stack是对张量在某一维度上进行拼接,这里采用默认维度,也就是第0个维度。stack()函数中传入的是一个list,代码中采用了python的列表解析式,列表生成器。它的功能是对参数crops进行for循环,每一次提取出一个元素crop,每一次对这个元素crops进行一些操作得到列表的元素。
crops是FiveCrop()函数输出的一个tuple,然后对tuple的每一个元素进行for循环,每一次取出一个crop,也就是一张图片,对每一张图片进行一个ToTensor()的操作,将其转换为张量的形式,将其变为list的一个元素。通过不断的循环,把五张图片都转为张量的形式,然后得到一个长度为5的list,把这个list放到stack()当中,stack()就把这个长度为5的list拼接成一个张量。这样,通过lambda(),就把tuple转为张量的形式,这样就可以输入到模型中。
点击运行之后还是会报错,报错如下,注意debug时,设置断点在plt.close():
由于图片的维度和代码不匹配,不能用原始的方法可视化。因为得到的input不再是一个四维的张量,是一个五维的张量。
这个五维张量的各个维度分别为(batchsize, ncrops, c, h, w),通过下面这个新的代码对每个crop进行可视化。因此1.6应该修改成如下形式:
# ============================ step 5/5 训练 ============================
for epoch in range(MAX_EPOCH):
for i, data in enumerate(train_loader):
inputs, labels = data # B C H W
# img_tensor = inputs[0, ...] # C H W
# img = transform_invert(img_tensor, train_transform)
# plt.imshow(img)
# plt.show()
# plt.pause(0.5)
# plt.close()
bs, ncrops, c, h, w = inputs.shape
for n in range(ncrops):
img_tensor = inputs[0, n, ...] # C H W
img = transform_invert(img_tensor, train_transform)
plt.imshow(img)
plt.show()
plt.pause(1)
得到一张图片的五维表示,代码要在五维张量中获取每一张图片,每一张图片应该是一个3维的张量,对ncrops进行循环,分别将五张图片进行可视化。通过命令输入窗,可以看到img_tensor的形状(3,112,112),可以直接进行可视化。
注意因为transforms.ToTensor()与transforms.Normalize(norm_mean, norm_std)被注释,所以应添加如下一行:
# 判断
if img_.shape[2] == 3:
img_ = img_.detach().numpy() * 255 # 添加一行
img_ = Image.fromarray(img_.astype('uint8')).convert('RGB')
但是只能输出第一张图片五张图和第二张图片一张图,所以可将if 'Normalize' in str(transform_train):与if 'ToTensor' in str(transform_train) or img_.max() < 1:两段代码都注释掉。
输出五张照片如下所示:
下面看一下TenCrop()函数的使用方法,它是在FiveCrop()函数的基础上进行翻转得到的十张图片。设置vertical_flip=True,也就是进行垂直的翻转
train_transform = transforms.Compose([
transforms.Resize((224, 224)),
# 1 Horizontal Flip,水平翻转
transforms.RandomHorizontalFlip(p=1),
# 2 Vertical Flip,垂直翻转
# transforms.RandomVerticalFlip(p=0.5),
transforms.ToTensor(),
transforms.Normalize(norm_mean, norm_std),
])
功能:依概率水平(左右)或垂直(上下)翻转图片
p:翻转概率(即有多大的概率将图片进行翻转)
功能:随机旋转图片
RandomRotation(degrees,
resample=False,
expand=False,
center=None)
当为a时,在(-a,a)之间选择旋转角度
当为(a,b)时,在(a,b)之间选择旋转角度
resample:重采样方法
expand:是否扩大图片,以保持原图信息,图片旋转后,可能会超出矩形框,超出部分可能会丢失,如果expand=True,矩形框会变大
center:旋转点设置,默认中心旋转,center=(0, 0)表示左上角旋转
train_transform = transforms.Compose([
transforms.Resize((224, 224)),
# 3 RandomRotation
# transforms.RandomRotation(90),
# transforms.RandomRotation((90), expand=True),
# transforms.RandomRotation(30, center=(0, 0)),
# expand only for center rotation
transforms.RandomRotation(30, center=(0, 0), expand=True),
transforms.ToTensor(),
transforms.Normalize(norm_mean, norm_std),
])
可以看到center=(0, 0),expand=True时,图片也会丢失一部分,因为expand是针对center rotation机制,计算所需扩大的尺度,而在中心和左上角需要计算出的尺度是不一样的,因此expand=True无法找到左上角图像丢失的所有信息。
当使用expand=True扩大图片时,因为每张图片旋转的角度不同,最后得到的图片的大小是不一样的,如果batchsize 1 最后拼接的时候collate_fn可能出现报错的问题,所以在使用expand的时候,需要注意对图片进行缩放,将所有照片缩放到统一的尺寸。
transforms.Pad(padding,
fill=0,
padding_mode=‘constant’)
功能:对图片边缘进行填充
当为a时,上下左右均填充a个像素
当为(a,b)时,左右填充a个像素,上下填充b个像素
当为(a,b,c,d)时,左,上,右,下分别填充a,b,c,d
padding_mode:填充模式,有4种模式,constant、edge、reflect和symmetric
fill:constant时,设置填充的像素值,(R,G,B)or(Gray)
train_transform = transforms.Compose([
transforms.Resize((224, 224)),
# 1 Pad
transforms.Pad(padding=32, fill=(255, 0, 0), padding_mode='constant'),
# transforms.Pad(padding=(8, 64), fill=(255, 0, 0), padding_mode='constant'),
# transforms.Pad(padding=(8, 16, 32, 64), fill=(255, 0, 0), padding_mode='constant'),
# transforms.Pad(padding=(8, 16, 32, 64), fill=(255, 0, 0), padding_mode='symmetric'),
transforms.ToTensor(),
transforms.Normalize(norm_mean, norm_std),
])
transforms.ColorJitter(brightness=0,
contrast=0,
saturation=0,
hue=0)
功能:修改修改亮度、对比度和饱和度
当为a时,从[max(0, 1-a), 1+a]中随机选择一个数
当为(a, b)时,从[a, b]中随机选择一个数
contrast:对比度参数,同brightness
saturation:饱和度参数,同brightness
当为a时,从[-a, a]中选择参数,注: 0 ≤ a ≤ 0.5
当为(a, b)时,从[a, b]中选择参数,注:-0.5 ≤ a ≤ b ≤ 0.5
train_transform = transforms.Compose([
transforms.Resize((224, 224)),
# 2 ColorJitter
# transforms.ColorJitter(brightness=0.5),
# transforms.ColorJitter(contrast=0.5),
# transforms.ColorJitter(saturation=0.5),
# transforms.ColorJitter(hue=0.3),
transforms.ToTensor(),
transforms.Normalize(norm_mean, norm_std),
])
对比度降低,图像发灰,对比度增高,白色更白,黑色更黑。
transforms.RandomGrayscale(num_output_channels,
p=0.1)
# 是RandomGrayscale的一个特例,是p=1的情况
transforms.Grayscale(num_output_channels=1)
功能:依概率将图片转换为灰度图
num_ouput_channels:输出通道数,只能设1或3
p:概率值,图像被转换为灰度图的概率
train_transform = transforms.Compose([
transforms.Resize((224, 224)),
# 3 Grayscale,num_output_channels=1会报错,因为这里使用的图像是3维的
# transforms.Grayscale(num_output_channels=3),
transforms.ToTensor(),
transforms.Normalize(norm_mean, norm_std),
])
num_output_channels=1报错:因为高斯变换逆变换均值和方差为三维
空间几何变换
transforms.RandomAffine(degrees,
translate=None,
scale=None,
shear=None,
resample=False,
fillcolor=0)
功能:对图像进行仿射变换,仿射变换是二维的线性变换,由五种基本原子变换构成,分别是旋转、平移、缩放、错切和翻转。经过五种变换的随机组合,即可得到二维线性变换。
degrees:旋转角度设置,必设参数
translate:平移区间设置,如(a, b),a设置宽(width),b设置高(height) 图像在宽维度平移的区间为 -img_width * a < dx < img_width * a
scale:缩放比例(以面积为单位),0到1之间,原始图像占resize后图像的比例
fill_color:填充颜色设置,默认黑色填充
若为a,则仅在x轴错切,错切角度在(-a,a)之间,以中心旋转形式
若为(a, b),则仅在x轴错切,错切角度在(a, b)之间
若为(a, h, c, d),则a, b设置x轴角度,c, d设置y轴角度
resample:重采样方式,有NEAREST、BILINEAR、BICUBIC
train_transform = transforms.Compose([
transforms.Resize((224, 224)),
# 4 Affine
# transforms.RandomAffine(degrees=30),
# 平移
# transforms.RandomAffine(degrees=0, translate=(0.2, 0.2), fillcolor=(255, 0, 0)),
# transforms.RandomAffine(degrees=0, scale=(0.7, 0.7)),
# 错切
# 沿着x轴错切
# transforms.RandomAffine(degrees=0, scale=(0.7, 0.7), shear=45),
# transforms.RandomAffine(degrees=0, scale=(0.7, 0.7), shear=(45, 45)),
# 沿着y轴错切
# transforms.RandomAffine(degrees=0, scale=(0.7, 0.7), shear=(0, 0, 0, 45)),
transforms.RandomAffine(degrees=0, shear=90, fillcolor=(255, 0, 0)),
transforms.ToTensor(),
transforms.Normalize(norm_mean, norm_std),
])
下图分别为沿x轴错切,沿x轴错切,沿y轴错切。
transforms.RandomErasing(p=0.5,
scale=(0.02, 0.33),
ratio=(0.3, 3.3),
value=0,
inplace=False)
功能:对图像进行随机遮挡
p:概率值,执行该操作的概率
scale:遮挡区域的面积,原论文中推荐数值scale=(0.02, 0.33)
ratio:遮挡区域长宽比,设置一个区间,原论文中推荐数值ratio=(0.3, 3.3)
value:设置遮挡区域的像素值,(R,G,B)or(Gray),0-1之间,应为操作的是tensor张量。如果为任意字符串,而不是tuple,都默认为random
参考文献:《Random Erasing Data Augmentation》
train_transform = transforms.Compose([
transforms.Resize((224, 224)),
# 5 Erasing
transforms.ToTensor(),
# 随即遮挡接收的是tensor,在张量上进行操作,之前都是在PIL image上的操作
# transforms.RandomErasing(p=1, scale=(0.02, 0.33), ratio=(0.3, 3.3), value=(254/255, 0, 0)),
transforms.RandomErasing(p=1, scale=(0.02, 0.33), ratio=(0.3, 3.3), value='random'),
# transforms.RandomErasing(p=1, scale=(0.02, 0.33), ratio=(0.3, 3.3), value='1234'),
transforms.ToTensor(),
transforms.Normalize(norm_mean, norm_std),
])
Lambda匿名函数,常用来简单操作的实现。
transforms.Lambda(lambd)
功能:用户自定义lambda方法。
lambd:lambda匿名函数,语法实现形式,lambda [arg1 [,arg2, … , argn]] : expression,冒号之前是输入参数,之后是表达式,相当于return
示例:TenCrop返回10张图片的元组形式,而transforms输入输出一般是tensor或PIL image形式,所以需要对TenCrop输入的tuple形式进行变换,拼接成tensor形式,这是可以采用Lambda匿名函数
transforms.TenCrop(200, vertical_flip=True),
# 最后返回一个4维的张量
transforms.Lambda(lambda crops: torch.stack([transforms.Totensor()(crop) for crop in crops])),
PyTorch不仅可设置对图片的操作,还可以对这些操作进行随机选择、组合,使得数据增强更加灵活多样。
train_transform = transforms.Compose([
transforms.Resize((224, 224)),
# 1 RandomChoice
transforms.RandomChoice([transforms.RandomVerticalFlip(p=1),
transforms.RandomHorizontalFlip(p=1)]),
# 2 RandomApply
# 有的图像执行错切填充红色后进行灰度变换,有的不执行任何操作
# transforms.RandomApply([transforms.RandomAffine(degrees=0, shear=45, fillcolor=(255, 0, 0)),
# transforms.Grayscale(num_output_channels=3)], p=0.5),
# 3 RandomOrder
# transforms.RandomOrder([transforms.RandomRotation(15),
# transforms.Pad(padding=32),
# transforms.RandomAffine(degrees=0, translate=(0.01, 0.1), scale=(0.9, 1.1))]),
transforms.ToTensor(),
transforms.Normalize(norm_mean, norm_std),
])
transforms.RandomChoice([transforms1, transforms2, transforms3])
功能:从给定的一系列transforms中随机选择一个进行操作,randomly picked from a list。
transforms.RandomApply([transforms1, transforms2, transforms3], p=0.5)
功能:依据概率执行一组transforms操作
transforms.RandomOrder([transforms1, transforms2, transforms3])
功能:将transforms中的操作顺序随机打乱
class Compose(object):
def __call__(self, img):
for t in self.transforms:
img = t(img)
return img
在dataset与dataloader机制一节中,我们知道transforms方法是在Compose类中的call函数被调用的。由上述代码可以看出,对一组transforms进行for循环,顺序挑选出transforms方法执行,每次输入一个参数,返回一个参数,因此transforms方法只能接收一个参数,返回一个参数。其次,for循环里,当前transforms方法的输入是上一个方法的输出,方法上下有前后关系,因此输入输出类型要匹配,比如都是PIL image形式或者都是tensor。
自定义transforms要素:
仅接收一个参数,返回一个参数,可以是PIL img,可以是tensor,list,tuple或者dict
注意上下游的输出与输入
在设计transforms方法时,可能需要多个参数,比如概率取值,信噪比等,这时可以通过类实现多参数传入:
class YourTransforms(object):
# 初始化,传入想要的参数
def __init__(self, ...):
...
# 类中必须有call函数,使得类的示例可以被调用,
# 在这个函数中实现自定义数据增强的具体功能
# 只能接受一个输入img参数,返回一个img参数
def __call__(self, img):
...
return img
椒盐噪声:又称为脉冲噪声,是一种随机出现的白点或者黑点,白点称为盐噪声,黑色为椒噪声。
信噪比(Signal-Noise Rate, SNR)是衡量噪声的比例,图像像素在整张图象的占比。如下图所示,随着信噪比的减小,图像像素信息丢失逐渐增加。
椒盐噪声:
class AddPepperNoise(object):
def __init__(self, snr, p):
self.snr = snr
self.p = p
def __call__(self, img):
"""添加椒盐噪声具体实现过程
"""
return img
class AddPepperNoise(object):
"""增加椒盐噪声
Args:
snr (float): Signal Noise Rate
p (float): 概率值,依概率执行该操作
"""
def __init__(self, snr, p=0.9):
assert isinstance(snr, float) and (isinstance(p, float)) # 2020 07 26 or --> and
self.snr = snr
self.p = p
def __call__(self, img):
"""
Args:
img (PIL Image): PIL Image
Returns:
PIL Image: PIL image.
"""
# 概率判断,以一定的概率执行椒盐噪声
if random.uniform(0, 1) < self.p:
img_ = np.array(img).copy() # 将输入的PIL img形式转变为numpy形式
h, w, c = img_.shape # 获取图像的高宽通道数
signal_pct = self.snr # 设置信号百分比
noise_pct = (1 - self.snr)
# 0,1,2分别表示是原始图像,盐噪声,椒噪声
mask = np.random.choice((0, 1, 2), size=(h, w, 1), p=[signal_pct, noise_pct/2., noise_pct/2.])
mask = np.repeat(mask, c, axis=2)
img_[mask == 1] = 255 # 盐噪声
img_[mask == 2] = 0 # 椒噪声
return Image.fromarray(img_.astype('uint8')).convert('RGB')
else:
return img
train_transform = transforms.Compose([
transforms.Resize((224, 224)),
AddPepperNoise(0.9, p=0.5), # 椒盐噪声
transforms.ToTensor(),
transforms.Normalize(norm_mean, norm_std),
])
以一定概率添加椒盐噪声:
原则:让训练集与测试集更接近。
空间位置:平移
色彩:灰度图,色彩抖动
形状:仿射变换
上下文场景:遮挡,填充
……
关注下方【学姐带你玩AI】
回复“pytorch”了解更多视频详情
码字不易,欢迎大家点赞评论收藏!