mrshi12321 : 施江玮 杭州电子科技大学 研二
大黄有故事 : 黄钦建 华南理工大学 研二
now more : 林宏辉 华南理工大学 研一
通过无人机航拍的地面影像,探索像素级农作物分类的算法,具体的分类目标为薏仁米、玉米、烤烟、人造建筑(复赛新增),其余所有位置归为背景类。
初赛复赛提供的数据是同一片区域的航拍影像。其中初赛提供数据为农作物生长的早期(大多没长出来),分割难度较大。复赛数据农作物长势良好,并在初赛赛题基础上增加了一类“建筑”。
提供的label为与原始图像1:1大小的单通道图像,像素的大小对应不同的标注类别。其中“烤烟”像素值为1,“玉米”像素值为2,“薏仁米”像素值为3,“人造建筑”像素值为4,背景类像素值为0
上图为复赛训练集数据可视化,其中蓝色区域为烤烟,绿色为玉米,红色为薏仁米,黑色为建筑,其它归为白色。虽然图像分辨率大,但mask无效的区域面积也较大,类别不平衡问题也很突出,背景类占比远高于其它类别。
赛题的评估指标为mIoU,榜上排名分数为所有计算所有类别IoU后取平均的结果。
切割时主要从三个方面考量:
最终采取的切割策略如下:
模型上我们队伍没有做很多的尝试,初赛复赛都是基于DeeplabV3plus(决赛5个队伍里有3个用了DeeplabV3plus),backbone为Xception-65和ResNet-101以及DenseNet-121,从 A榜分数看,不加任何trick时,DenseNet分数略高于另外两个,但是显存占用太大以及训练时间太长,在后来的方案里就舍弃了。决赛复现时,使用了两个Xception-65和一个ResNet-101投票,投票每个模型用不同的数据训练,增加模型差异。
方格效应:如果直接做不重叠滑窗预测拼接,得到的预测结果拼接痕迹明显。
原因分析:网络卷积计算时,为了维持分辨率进行了大量zero-padding,导致网络对边缘预测不准。
膨胀预测:预测时,只保留预测结果的中心区域,舍弃预测不准的边缘。
具体实现:
测试时,通过对图像水平翻转,垂直翻转,水平垂直翻转等多次预测,再对预测结果取平均可以提高精度,但相对的,推理时间也会大幅度升高。
with torch.no_grad():
for (image,pos_list) in tqdm(dataloader):
# forward --> predict
image = image.cuda(device) # 复制image到model所在device上
predict_1 = model(image)
# 水平翻转
predict_2 = model(torch.flip(image,[-1]))
predict_2 = torch.flip(predict_2,[-1])
# 垂直翻转
predict_3 = model(torch.flip(image,[-2]))
predict_3 = torch.flip(predict_3,[-2])
# 水平垂直翻转
predict_4 = model(torch.flip(image,[-1,-2]))
predict_4 = torch.flip(predict_4,[-1,-2])
predict_list = predict_1 + predict_2 + predict_3 + predict_4
predict_list = torch.argmax(predict_list.cpu(),1).byte().numpy() # n x h x w
snapshot ensemble 是一个简单通用的提分trick,通过余弦周期退火的学习率调整策略,保存多个收敛到局部最小值的模型,通过模型自融合提升模型效果。详细的实验和实现可以看黄高老师ICLR 2017的这篇论文。
snapshot ensemble 另一个作用是作新方案的验证。深度学习训练的结果具有一定的随机性,在做新改进方案验证时,有时难以确定线上分数的小幅度提升是来自于随机性,还是改进方案really work。在比赛提交次数有限的情况下,snapshot ensemble 不失为一个稳定新方案验证的方法
后处理问题上我们队伍只做了最简单的填充孔洞和去除小连通域。
标签平滑想法参考了Hinton大神关于的知识蒸馏和When does label smoothing help?的工作,标签平滑训练的模型更加稳定和泛化能力更强。
在知识蒸馏中,用teacher模型输出的soft target训练的student模型,比直接用硬标签(onehot-label)训练的模型具有更强的泛化能力。我对这部分提升理解是:软标签更加合理反映样本的真实分布情况,硬标签只有全概率和0概率,太过绝对。知识蒸馏时teacher模型实现了easy sample 和 hard sample 的“分拣”(标签平滑),对hard sample输出较低的置信度,对easy sample 输出较高的置信度,使得student模型学到了更加丰富的信息。
上图截取自When does label smoothing help? ,第一行至第四行分别为CIFAR10、CIFAR100、ImageNet(Course)、ImageNet(fine) 的数据集上训练的网络倒数第二层输出可视化,其中第一列为硬标签训练的训练集可视化,第二列为硬标签训练的测试集可视化,第三列为软标签训练的训练集可视化,第四列为软标签训练的测试集可视化,可以看出软标签训练的模型类内更加凝聚,更加可分。
在图像分割任务中,每个像素的分类结果很大程度依赖于周围像素,基于此,即使不通过teacher模型,我们也可以发掘部分样本中的hard sample。本次比赛中我们主要考虑了以下两类数据:
上图从上到下分别为image_3原图,不加膨胀预测的模型预测结果,模型对每个像素点的预测置信度可视化图(将置信度p<0.8可视化为黑色,p>=0.8可视化为白色),可以明显看出,对于图像边缘数据,信息缺失网络难以作出正确分类。对于类间交界,由于训练过程梯度不稳定,网络对这部分数据的分类把握较低。
我们采取的方式是在图像边缘和类间交界设置过渡带,过渡带内的像素视为 hard sample作标签平滑处理,平滑的程度取决于训练时每个batch中 hard sample 像素占总输入像素的比例。而过渡带w的大小为一个超参数,在本次比赛中我们取w=11。
伪标签是分类比赛中常用的trick之一,在模型分数已经较高的情况下可以尝试。提分显著,但对A榜过拟合的风险极大。具体实施是: