【深度学习小日记】查找提升分割精度的方法

1. 预处理:降噪,图像增强

2. 加注意力机制

**一般在编解码器或瓶颈处加入。**当我们使用卷积神经网络去处理图片的时候,我们会更希望卷积神经网络去注意应该注意的地方,而不是什么都关注,我们不可能手动去调节需要注意的地方,这个时候,如何让卷积神经网络去自适应的注意重要的物体变得极为重要。注意力机制就是实现网络自适应注意的一个方式。

注意力机制Attention 可以解释为将计算资源偏向信号最具信息性的部分的方法。一般在图像分割中,由于病灶较小且形状变化较大,常在encoder和decoder 对应特征拼接之前,或是在 U-Net 的瓶颈处增加 attention 模块来减少假阳性预测。

注意力机制是一个即插即用的模块,理论上可以放在任何一个特征层后面,可以放在主干网络,也可以放在加强特征提取网络。由于放置在主干会导致网络的预训练权重无法使用,因此一般将注意力机制应用加强特征提取网络上。

2.1 SENet(2017)

SENet是通道注意力机制的典型实现。对于输入进来的特征层,我们关注其每一个通道的权重,对于SENet而言,其重点是获得输入进来的特征层,每一个通道的权值。利用SENet,我们可以让网络关注它最需要关注的通道。
其具体实现方式就是:
1、对输入进来的特征层进行全局平均池化。
2、然后进行两次全连接,第一次全连接神经元个数较少,第二次全连接神经元个数和输入特征层相同。
3、在完成两次全连接后,我们再取一次Sigmoid将值固定到0-1之间,此时我们获得了输入特征层每一个通道的权值(0-1之间)。
4、在获得这个权值后,我们将这个权值乘上原输入特征层即可。

【深度学习小日记】查找提升分割精度的方法_第1张图片
【深度学习小日记】查找提升分割精度的方法_第2张图片
【深度学习小日记】查找提升分割精度的方法_第3张图片

通过学习的方式来自动获取到每个特征通道的重要程度,然后依照这个重要程度去提升有用的特征,并抑制对当前任务用处不大的特征。实现通道的压缩和激励,通过找到特征较好的通道,强调这一通道,压缩不相关的通道,以减少参数,强化分割精度。

2.2 CBAM通道和空间注意力机制

可以考虑在U-Net收缩路径和扩张路径中间的部分添加Attention模块,通道+空间的注意力机制(scAttention)二者结合效果不错。
【深度学习小日记】查找提升分割精度的方法_第4张图片
【深度学习小日记】查找提升分割精度的方法_第5张图片

3 新模型

加强版UNet:UNet++(2018) 和 UNet3+(2020)
通过引入全尺度的跳过连接,在全尺度特征映射中融合了低层细节和高层语义,充分利用了多尺度特征的同时具有更少的参数。这种长连接是有必要的,它联系了输入图像的很多信息,有助于还原降采样所带来的信息损失,在一定程度上和残差的操作非常类似。

UNet++和UNet3+就是基于此给出的综合长连接和短连接的方案。

UNet++和UNet3+把原来空心的U-Net填满了,优势是可以抓取不同层次的特征,将它们通过特征叠加的方式整合,不同层次的特征,或者说不同大小的感受野,对于大小不一的目标对象的敏感度是不同的,比如,感受野大的特征,可以很容易的识别出大物体的,但是在实际分割中,大物体边缘信息和小物体本身是很容易被深层网络一次次的降采样和一次次升采样给弄丢的,这个时候就可能需要感受野小的特征来帮助。另一个解读就是如果你横着看其中一层的特征叠加过程。

原先的U-Net,横着看就很像是Residual的结构,这个就很有意思了,UNet++对于U-Net分割效果提升可能和DenseNet对于ResNet分类效果的提升,原因如出一辙。
【深度学习小日记】查找提升分割精度的方法_第6张图片
【深度学习小日记】查找提升分割精度的方法_第7张图片
UNet3+网络中用到了混合损失函数,将focal loss、MS-SSIM loss、 IoU loss 进行了结合,从而能更好地捕捉具有清晰边的大尺度和精细结构。
有关文献实验结果: 【深度学习小日记】查找提升分割精度的方法_第8张图片

4 Loss函数选择

4.1 交叉熵损失

4.2 Focal loss:

为了解决 one-stage 目标检测中正负样本比例 严重失衡的问题

4.3 Dice loss:

在感兴趣的解剖结构仅占据扫描的非常小的区域,从而使学习过程陷入损失函数的局部最小值

4.4 Tversky loss:

通过调整α和β,可以控制假阳性和假阴性 之间的权衡

4.5 Dice和Focal loss混合

一般取λ=0.5 在这里插入图片描述

4.6 CEL-Dice los

H为交叉熵损失,D为Dice loss。结合了交叉熵的稳定性和类不平衡不影响Dice loss的特性,因此有比Dice loss更好的稳定性,比交叉熵更好地解决类不平衡的问题。 在这里插入图片描述

你可能感兴趣的:(我的深度学习日记,深度学习,图像处理)