半监督分割与Transformer结合论文阅读(更新中)

一.Semi-Supervised Medical Image Segmentation via Cross
Teaching between CNN and Transformer(MIDL2022)

论文地址:https://arxiv.org/abs/2112.04894

Code:https://github.com/HiLab-git/SSL4MIS

半监督分割与Transformer结合论文阅读(更新中)_第1张图片

 其实这篇文章和CPS如出一辙,只是将CPS中的两个相同结构不同初始化的网络分别替换为CNN和一个Transformer结构的网络,无标签部分的输出loss计算也是采用了CPS中的交叉监督方法。

下面是具体的loss计算:

其中p_{i}^{c}是CNN的输出结果,p_{i}^{t}是Transformer的输出结果。

 

 pl_{i}^{c}pl_{i}^{t}分别是CNN和Transformer预测结果的伪标签,之后交叉计算DIce

 

Label部分就是cross-entropy loss 和 dice loss ,其中\lambda是time-dependent Gaussian warming up function commonl。t_{i}是当前迭代次数,t_{total}是总迭代次数

实验部分:

半监督分割与Transformer结合论文阅读(更新中)_第2张图片

 表格中第一部分是将原始方法的unet替换为swinunet的结果

第二部分中的CT表示交叉教学,CR表示一致性正则化

第三部分为不用的损失函数的结果,*表示预测结果为swinunet生成

 

 半监督分割与Transformer结合论文阅读(更新中)_第3张图片

这部分实验是在不同数量有标签数据下的结果,且最终预测由unet产生 

你可能感兴趣的:(半监督,transformer,深度学习,人工智能)