Semi-supervised Deep Learning for Fully Convolutional Networks文章解读

Semi-supervised Deep Learning for Fully Convolutional Networks文章解读_第1张图片

       目前对FCN分割还没有半监督的方法,本文提出auxiliary manifold embedding的概念在随机特征内嵌的辅助下用于FCN的半监督学习,并且用已提出的方法对现有的MS lesion分割任务进行实验验证。

1 引言

Semi-supervised Deep Learning for Fully Convolutional Networks文章解读_第2张图片

       在本文中,我们提出了auxiliary manifold embedding的概念到FCN中,这种新颖的策略叫做"随机特征嵌入"。随后,我们成功执行我们提出的针对域适应的FCN的半监督微调嵌入技术对MS病变分割的挑战性任务。

2 方法论

Semi-supervised Deep Learning for Fully Convolutional Networks文章解读_第3张图片

 Semi-supervised Deep Learning for Fully Convolutional Networks文章解读_第4张图片

 这里首先对符号进行了定义和说明;

2.1 Auxiliary Manifold Embedding

Semi-supervised Deep Learning for Fully Convolutional Networks文章解读_第5张图片

   本文定义了两个损失项,Lp为有标签数据的损失(Dice-loss),而LE为无标签数据的损失(auxiliary manifold embedding loss);其中LE定义在有标签数据和无标签数据的潜在特征表示h(.),这个损失最小化了在潜在特征空间相似输入的差异。

         总的代价函数可用公式1来表示,1式代价函数的旨在最小化

       LE的定义可用公式2来表达;矩阵A为训练batch内嵌样本nE间的邻接矩阵,d(.,.)是两个latent 特征表示间的任意距离度量,本文的距离度量方式采用angular cosine distan(ACD)的距离度量方式;

       文中说A的定义是留给用户可以是任意的,本文对于A的定义可采用下面英文描述的那样:

Semi-supervised Deep Learning for Fully Convolutional Networks文章解读_第6张图片

 2.2 随机特征嵌入

Semi-supervised Deep Learning for Fully Convolutional Networks文章解读_第7张图片

由于采样和比较大图像中所有像素点的h(.)是计算和比较量较大,因此实际实现上是不可行的,因此在本文提出了以下随机采样策略来只对一部分像素进行比较 

随机特征嵌入(RFE):我们根据一些在下一节讨论的抽样策略随机抽取有限数量的nE的像素从当前批次的特征图中,以限制比较的数量。该损失保持有效,因为我们仅传播所选像素的梯度。

采样策略:理想情况下,随机采样嵌入的分布应该模仿如图2所示的所有嵌入之一,同时关注的类间分布,以便不会将不想要的偏重引入模型。因此本文开发了一种采样策略。

以下就是本文开发的随机采样策略方案:

Semi-supervised Deep Learning for Fully Convolutional Networks文章解读_第8张图片

 3 实验和结果

你可能感兴趣的:(深度学习文章解读)