摘要*7()

1、BoostMIS: Boosting Medical Image Semi-supervised Learning with Adaptive Pseudo Labeling and Informative Active Annotation(CVPR 2022)

BoostMIS:利用自适应伪标签和信息性主动注释促进医学图像半监督学习

在本文中,我们提出了一个新颖的半监督学习(SSL)框架,名为BoostMIS,它结合了自适应伪标签和信息性主动注释,以释放医学图像SSL模型的潜力。(1)BoostMIS可以根据当前的学习状态,自适应地利用集群假设和未标记数据的一致性正则化。这一策略可以自适应地生成由任务模型预测转换而来的单次 "硬 "标签,以更好地进行任务模型训练。(2) 对于未选择的低置信度的未标记图像,我们引入主动学习(AL)算法,通过利用虚拟对抗扰动和模型的密度感知熵,找到有信息的样本作为注释候选。这些有信息量的候选样本随后被送入下一个训练周期,以便更好地进行SSL标签传播。值得注意的是,自适应伪标签和信息量大的主动标注形成了一个学习闭环,它们相互协作,促进了医学图像SSL。为了验证所提方法的有效性,我们收集了一个转移性硬膜外脊髓压迫(MESCC)的数据集,旨在优化MESCC的诊断和分类,以改善专家转诊和治疗。我们在MESCC和另一个公共数据集COVIDx上进行了BoostMIS的广泛实验研究。实验结果验证了我们的框架对不同医学图像数据集的有效性和通用性,与各种最先进的方法相比,有了明显的改善。

2、ACPL: Anti-curriculum Pseudo-labelling for Semi-supervised Medical Image Classification(CVPR 2022)

用于半监督医学图像分类的反课程伪标签法

医学图像分析(MIA)中有效的半监督学习(SSL)必须解决两个挑战。1)在多类(如病变分类)和多标签(如多种疾病诊断)问题上都能有效工作;2)处理不平衡学习(因为疾病发生率的差异很大)。在SSL MIA中探索的一种策略是基于伪标签策略,但它有一些缺点。伪标签一般来说比一致性学习的准确率低,它不是专门为多类和多标签问题设计的,而且它可能受到不平衡学习的挑战。在本文中,与传统的通过阈值选择有信心的伪标签的方法不同,我们提出了一种新的SSL算法,称为反课程伪标签(ACPL),它引入了新的技术来选择有信息量的无标签样本,改善训练平衡,使模型同时适用于多标签和多类问题,并通过准确的分类器集合来估计伪标签(提高伪标签的准确性)。我们进行了广泛的实验,在两个公共医学图像分类基准上评估ACPL。胸部X-Ray14用于胸部疾病多标签分类,ISIC2018用于皮肤病变多类分类。我们的方法在这两个数据集上的表现都优于之前的SOTA SSL方法。

3、Correlated Input-Dependent Label Noise in Large-Scale Image Classification(CVPR 2021 Oral)

大规模图像分类中与输入相关的标签噪声

大规模的图像分类数据集经常包含噪声标签。我们采取了一种原则性的概率方法来模拟这些数据集中的输入依赖性(也称为异方差)的标签噪声。我们将一个多变量正态分布的潜变量放在神经网络分类器的最后隐藏层。这个潜变量的协方差矩阵模拟了标签噪声引起的不确定性。我们证明,学习到的协方差结构能够捕捉到语义相似和共同出现的类别之间已知的标签噪音来源。与标准神经网络训练和其他基线相比,我们在Imagenet ILSVRC 2012 79.3%(+2.6%)、Imagenet-21k 47.0%(+1.1%)和JFT 64.7%(+1.6%)上显示出显著的准确性。我们在WebVision 1.0上创造了一个新的最先进的结果,最高准确率为76.6%。这些数据集的范围从超过100万到超过3亿个训练实例,从1k类到超过21k类。我们的方法使用起来很简单,而且我们提供了一个实现方法,可以直接替代深度分类器中的最后一个全连接层。

4、Interpretable and Accurate Fine-grained Recognition via Region Grouping(CVPR 2020)

通过区域分组的可解释和准确的细粒度识别


我们提出了一个用于细粒度视觉识别的可解释的深度模型。我们的方法的核心是在一个深度神经网络中整合基于区域的部件发现和归属。我们的模型使用图像级别的物体标签进行训练,并通过对物体部分的分割和识别它们对分类的贡献来解释其结果。为了便于在没有直接监督的情况下学习物体部分,我们探索了一个简单的物体部分出现的先验。我们证明,当这个先验与我们基于区域的部件发现和归属相结合时,会产生一个可解释的模型,并且保持高度的准确性。我们的模型在主要的细粒度识别数据集上进行了评估,包括CUB-200、CelebA和iNaturalist。我们的结果在分类任务上与最先进的方法相比更胜一筹,而且我们的方法在物体部分的定位上优于以前的方法。

5、Compositional Convolutional Neural Networks: A Deep Architecture with Innate Robustness to Partial Occlusion(CVPR 2020)

组合式卷积神经网络。对部分遮挡具有先天鲁棒性的深度架构

最近的研究结果表明,深度卷积神经网络(DCNNs)在部分遮挡下不能很好地泛化。受组合模型在分类部分遮挡物体方面的成功启发,我们建议将组合模型和DCNN整合成一个统一的深度模型,对部分遮挡具有天生的鲁棒性。我们称这个架构为组合卷积神经网络。特别是,我们建议用一个可区分的组合模型取代DCNN的全连接分类头。组合模型的生成性质使其能够定位遮挡物,并随后关注物体的非遮挡部分。我们对人工遮挡的图像以及MS-COCO数据集中部分遮挡物体的真实图像进行了分类实验。结果表明,DCNN不能稳健地对被遮挡的物体进行分类,即使是在用部分遮挡强烈增强的数据进行训练时也是如此。我们提出的模型在对部分遮挡物体进行分类方面比标准的DCNN有很大的优势,即使它在训练期间没有接触到遮挡物体。其他实验表明,尽管只用类标签进行训练,组合网络也能准确地定位遮挡者。这项工作中使用的代码是公开的。

6、Spatially Attentive Output Layer for Image Classification(CVPR 2020)

用于图像分类的空间注意力输出层


大多数用于图像分类的卷积神经网络(CNN)使用全局平均集合(GAP),然后使用全连接(FC)层进行输出对数。然而,这种空间聚合程序本质上限制了输出层对特定位置信息的利用,尽管这种空间信息对分类是有益的。在本文中,我们在现有卷积特征图的基础上提出了一个新的空间输出层,以明确地利用特定位置的输出信息。具体来说,鉴于空间特征图,我们通过在空间对数上采用注意力掩码,用空间注意力输出层(SAOL)取代之前的GAP-FC层。所提出的特定位置的注意力有选择地聚集目标区域内的空间日志,这不仅导致了性能的提高,也导致了空间上的可解释输出。此外,所提出的SAOL还允许充分利用特定位置的自我监督和自我减弱来提高训练中的泛化能力。所提出的具有自我监督和自我蒸馏功能的SAOL可以很容易地插入到现有的CNN中。在各种具有代表性的架构的分类任务上的实验结果表明,在几乎相同的计算成本下,SAOL的性能有了持续的提高。

7、Learning Discriminative Representations for Fine-Grained Diabetic Retinopathy Grading(***)

Published in: 2021 International Joint Conference on Neural Networks (IJCNN)

为细粒度糖尿病视网膜病变分级学习判别性表征

糖尿病视网膜病变(DR)是导致失明的主要原因之一。然而,早期的DR没有具体的症状,导致诊断延迟,从而导致患者的疾病进展。为了确定疾病的严重程度,眼科医生需要关注眼底图像的鉴别部分。近年来,深度学习在医学图像分析方面取得了巨大成功。然而,大多数作品直接采用了基于卷积神经网络(CNN)的算法,而这些算法忽略了类之间的差异是微妙和渐进的。因此,我们将DR的自动图像分级视为一项细粒度的分类任务,并构建了一个双线性模型来识别病理上的区分区域。为了利用类别之间的顺序信息,我们使用顺序回归的方法来获得软标签。此外,除了使用分类损失来训练我们的网络外,我们还引入了度量损失来学习一个更具辨别力的特征空间。实验结果表明,在两个公开的IDRiD和DeepDR数据集上,所提出的方法具有卓越的性能。

你可能感兴趣的:(论文笔记,python)