Swin-VoxelMorph

摘要

可变形医学图像配准广泛应用于医学图像处理中,具有可逆一对一的映射。虽然最先进的图像配准方法是基于卷积神经网络,但很少有人尝试用Transformer的方法。现有的模型忽略了在嵌入学习中使用注意机制来处理远程交叉图,限制了这种方法来识别解剖结构的语义上有意义的对应关系。这些方法虽然实现了快速的图像配准,但也忽略了变换的拓扑保存和可逆性。在本文中,提出了一种新的基于Swin Transformer对称无监督学习网络,它可以最小化图像之间的差异,并同时估计正变换和逆变换像相关性.具体地说,本文提出了三维Swin-UNet,它应用具有Shfited window的分层Swin Transformer作为编码器来提取上下文特征。设计了一种基于patch expanding的symmetric swin Transformer解码器,进行上采样操作,估计配准场。此外,目标损失函数可以保证预测变换的实质性微分性质。本文在ADNI和PPMI两个数据集上验证了该方法,并在保持理想的微分性质的同时实现了最先进的配准精度。

论文的两点贡献:

(1)首次提出了3D Swin-UNet,一个纯的基于变压器的3Du型编码器-解码器网络,以明确地利用Swin变压器进行可变形的医学图像配准。采用可学习的嵌入模块,利用低级空间特征和基于高级上下文相关性的增强能力,用于预测配准域。

(2)目标函数,包括方向和逆一致性约束,可以保证预测变换的拓扑保持和逆一致性。
PS:其实这两点,都是别的论文提出的。不知道为何这里都变成了作者的。

核心框图:

Swin-VoxelMorph_第1张图片

 

损失函数:

 

 

 

 

 总的:

 实验结果:

Swin-VoxelMorph_第2张图片

 

阅读总结一下:

从Swin-Transformer 到3D Swin-Unet 到 Symmetric 到这些损失函数的叠加,都是已有的。看不到论文什么创新。要说创新就是排列组合创新吧,至少实验结果不错。

 

你可能感兴趣的:(深度学习,人工智能,计算机视觉)