基于深度学习的医学图像配准综述(2020-6-25更新)

  • 2020-6-25 更新

我的配准项目的开源计划更新完成了,既有博客讲解重要内容,又有视频讲解配准项目,以及项目代码的GitHub仓库,具体请看该链接,希望对大家有所助益,主要内容复制如下:

  1. GitHub仓库(Timmy-Fang/Deformable-Image-Registration-Projects)
  2. CSDN博客 (即本人的博客,建议进入我的个人主页,查看我的全部博客)
  3. bilibili视频 (请关注我的B站账号:Timmy870,欢迎大家来观看、发弹幕、留言讨论,谢谢~)

发表的论文
我投稿的两篇会议论文也都发表出来了,有兴趣的可以点击链接,下载观看,第一篇是利用基于无监督学习的非刚性配准模型在胸部X光图像上的应用,第二篇是该模型在胸部CT图像配准任务的应用创新实践,文章链接罗列如下。

  1. Unsupervised learning-based deformable registration of temporal chest radiographs to detect interval change
  2. A FCN-based Unsupervised Learning Model for Deformable Chest CT Image Registration

  • 2020-3-16 更新

临近毕业,已经完成了毕业答辩,我计划陆续开源我的项目代码,把学到的知识还奉献给配准社区,具体的开源计划与进度可以查看这篇博客,另外,欢迎各位关注我的B站账号:Timmy_毛毛,方便以后及时观看我的更新内容,谢谢~

  • 2019-6-21 更新

没想到我的一篇深度学习做配准入门级的综述,竟然炸出来了这么多配准小白,甚是惊讶!我相信大家的初衷是一样的,都是为了交流学习配准而来。配准是个复杂的问题,刚开始接触这个,我也很迷茫,不知道从何下手,不清楚配准到底是什么样的,怎么实现的。完成本科的教育之后,我仅仅对配准有一个粗略的印象,对配准的算法细节更是一窍不通。虽然我的本科毕设做的就是配准,但当我的硕士导师询问我具体的细节时,我支支吾吾的回答不上来,当时对配准还只是一知半解,而且毕业后都还给老师了。

在图像处理领域中,配准是一项相对复杂得多的任务,无论是数学原理、处理步骤,还是结果评价等方面,都存在很多难题。虽然现在也有很多传统的配准方法取得了很好的效果,但是由于传统方法本身的局限性,导致其仍然存在很多问题,比如:

  1. 适用性差,一种方法或一组参数只适用于某一特定模态甚至是特定的数据集上;
  2. 处理速度慢,由于传统的配准方法大都是采用迭代优化的方式搜寻最优参数的,这导致其处理速度相当慢,很难应用在实时化场景中;
  3. 配准的结果评估是一个没有金标准的难题,我在实践当中深有体会,目前利用深度学习配准的方法大多采用分割标记的重合度(DICE)评价配准,这是有其局限性的;
  4. 标注的数据极其有限,深度学习极其依赖数据,大家都知道,而利用监督学习方法就需要大量的带标注的数据,这就更难收集了,不过还好,现在有无监督学习;
  5. 等等。

近几年深度学习的火热带动了很多领域的研究,配准任务也紧跟潮流,利用深度学习技术来改进算法,对以上问题的解决有了新的希望。

我相信大家和我一样,刚开始接触配准,手足无措,孤立无援,极其渴望配准大佬与深度学习大佬的指点与帮助,而身边又没有做配准的人可以指导,导师也不是专门做这个的。我发表这篇博文的初衷就是为了寻找志同道合的人,和大家一起讨论交流,学习进步,顺利毕业。没想到还是有不少人在做配准的,真是喜大普奔。自博客发表以来,陆续有不少人联系我,和我讨论交流配准的问题,但由于本人水平与精力有限,并不能给予及时合理的答复,因此我们考虑了某个小伙伴的建议,建了一个专门的配准萌新交流群(QQ,869211738),方便大家互相学习交流,共享资源。群里的规矩就一条,只能发与配准有关的东西,否则将被清理出群。欢迎大家进群交流配准!


写在前面的话

本人硕士研究生在读,主攻基于深度学习的医学图像处理方向,现在在做基于CNN的二维图像非刚性配准的研究。配准是医学图像处理中常用的基本技术,大量使用在医疗影像领域的各个方面,比如病灶检测,疾病诊断,手术规划,手术导航,疗效评估等。相较于检测、分类与分割任务,医学图像配准任务更加复杂,由于其任务本身的特性,将深度学习技术在自然图像上取得的进展迁移到配准任务上也更难一些,但随着深度学习的学习与研究热潮的高涨,配准领域的研究也因此受益,目前也有一定量的工作发表。前不久我做了相关的文献调研,写了该篇文献综述给导师看,简要总结了近两三年该领域的研究进展与方向,现粘贴如下。因水平有限,还在学习与研究中,难免有不恰当、不准确的地方,欢迎大家批评指正,一起交流学习!


目录

引言

一、配准分类

1、监督学习

2、非监督学习

二、相关问题

三.结论与讨论

参考文献


引言

医学图像配准是医学图像分析中常用的技术,它是将一幅图像(移动图像,Moving)的坐标转换到另一幅图像(固定图像,Fixed)中,使得两幅图像相应位置匹配,得到配准图像(Moved)。传统的配准方法是一个迭代优化的过程,首先定义一个相似性指标(例如,L2范数),通过对参数化转换或非参数化转换进行不断迭代优化,使得配准后的移动图像与固定图像相似性最高。

如今,深度学习在医学图像分析的研究中是比较火热的技术,在器官分割、病灶检测与分类任务中取得了相当好的效果。基于深度学习的医学图像配准方法相较于传统的配准方法,具有很大的优势与潜力,因此有越来越多的研究人员在研究该方法,近几年来有不少相关的工作发表。

本文调查了近两年来的基于深度学习的医学图像配准的文章,首先根据其中使用的深度学习方法进行分类,分别阐述;然后针对不同问题、从不同角度进行分析,比如分块、输入输出、刚体配准、评价指标、与传统方法比较、时间成本比较等;最后是结论与讨论部分。

一、配准分类

大体上,近几年的文章可以分为两大类[1] :(1)利用深度学习网络估计两幅图像的相似性度量,驱动迭代优化;(2)直接利用深度回归网络预测转换参数。前者只利用了深度学习进行相似性度量,仍然需要传统配准方法进行迭代优化,没有充分发挥深度学习的优势,花费时间长,难以实现实时配准。因此,本文只针对后者进行研究与讨论,所得结论只限于此类的非刚性配准方法。

根据使用的深度学习的种类划分,可以划分为基于监督学习的配准与基于非监督学习的配准两大类。

1、监督学习

基于监督学习的配准,也就是在训练学习网络时,需要提供与配准对相对应的真实变形场(即Ground Truth)。以二维图像配准为例,监督学习架构如图1所示。通常,先以两幅图像对应坐标为中心点进行切块,将图像块输入深度学习网络(通常为卷积神经网络),网络输出为图像块中心点对应的变形向量(Deformation Vector)。在训练监督学习网络时,需要提供训练样本相应的标签,也即是真实的变形场。获取标签有两种方式,(1)是利用传统的经典配准方法进行配准,得到的变形场作为标签[4] [6] ;(2)是对原始图像进行模拟变形,将原始图像作为固定图像,变形图像作为移动图像,模拟变形场作为标签[2] [10] 。

在测试阶段,对待配准图像对进行采样,输入网络,把预测的变形向量综合成变形场,再利用预测的变形场对移动图像进行插值,即得配准图像。三维图像与之类似。

基于深度学习的医学图像配准综述(2020-6-25更新)_第1张图片

图1、基于监督学习的配准框架

2、非监督学习

相较于监督学习,基于非监督学习的配准方法就是在训练学习网络时,只需要提供配准对,不需要标签(即真实的变形场)。因此,该方法在训练与测试阶段,均不依靠传统的配准方法。以二维图像配准为例,非监督学习框架如图2所示。

基于深度学习的医学图像配准综述(2020-6-25更新)_第2张图片

图2、基于非监督学习的配准框架

通常,基于非监督学习的配准[3] [7] [8] [9] ,将配准对输入网络,获得变形场,对移动图像进行变形插值,即得配准图像。三维图像与之类似,将三维图像输入网络,获得变形场(dx,dy,dz),再插值得到配准图像。由于空间转换层[11] (Spatial Transformation Networks,STN)的提出,[7] 首次成功地将其应用到医学图像领域,使得在训练阶段能够实现非监督学习的配准。空间转换层直接连在深度学习网络之后,利用获得的变形场对移动图像进行变形,得到变形后的图像。训练时,利用变形后的图像与固定图像求损失函数值(Loss function),对其进行反向传播,不断优化,使得损失函数值最小。

二、相关问题

为了从不同角度、不同部分对基于深度学习的配准方法进行简要分析与比较,我对参考文献从以下六个方面进行了总结,得到如下结论。

1、分块

分块是指对移动图像与固定图像进行采样,以采样点为块中心点,从图像中截取出来,输入到深度学习网络中。通常基于监督学习的配准方法需要对图像进行分块(如[2] [4] [6] [7] [10]),输入网络,获得块中心点对应的变形向量,而基于非监督学习的方法往往不需要分块(如[3] [8] [9]),[7] 例外。

2、输入输出

大部分的配准网络均将移动图像与固定图像作为两通道图像作为输入(如[2]  [3][5] [7] [10]),而基于监督学习的配准网络将其进行分块后输入。[6] 做了进一步的工作,除了输入移动图像块与固定图像块之外,还输入了两图像块卷积得到的相似性图像。[8] 在输入层输入固定图像,而在网络的中间层输入移动图像,这与其设计的独特配准网络有关。[9] 输入网络的是待学习的向量(Latent vector),预测变形场,对移动图像进行变形插值,而只在训练阶段利用固定图像求损失函数值。[4] 将固定图像,移动图像与固定图像的差分图像(Difference map)以及固定图像的梯度图像(Gradient map)作为三通道输入网络。

关于输出,基于监督学习的配准方法往往输出的是变形向量,而基于非监督学习的方法输出的为变形图像。

3、刚体配准

[10] 利用卷积神经网络来学习2D-3D刚体配准的参数。该文章使用人工合成图像作为训练样本,截取图像块,分别输入分支网络,然后整合到主干网络,以监督学习的方式学习转换参数(Transformation parameters)。得到的转换参数为tx、ty、tz、tθ、tα、tβ,分别为x方向平移量、y方向平移量、z方向平移量以及三个旋转量。

4、评价指标

配准效果的评价指标(Evaluation metrics)与使用的数据集有关。大多数文章中使用的数据集,如心脏与脑部图像数据集,均有对应图像的分割标签,因此,大多数使用Dice(如[3][4] [6] [7] [8] [9])作为评价指标。而[2] [5] 使用的是胸部CT数据集,用TRE(Target Registration Error)来评价配准效果。

5、与传统方法比较

多数文章(如[3] [4] [6] [8])使用的作为对比的传统配准方法为SyN、Demons或其变体,如ANTs,LCC-Demons。[2] 使用的是Elastix(一种基于ITK的开源配准工具包),[7] 使用的是SimpleElastix。

6、 时间成本比较

[3] [4] 中对比了传统配准方法与基于深度学习的配准方法的时间成本,以[4] 数据为例,如图3所示,其中D.Demons(Diffeomorphic Demons),SyN与FNIRT为传统方法,BIRNet为文中提出的基于深度学习的方法。从图中可以看出,基于深度学习的配准方法BIRNet处理速度最快,在GPU上运行D.Demons次之,耗时1.1分钟,SyN最慢,耗时9.7分钟。值得注意的是,BIRNet为监督学习方法,输入网络的是采样得到的图像块,而非完整图像。

基于深度学习的医学图像配准综述(2020-6-25更新)_第3张图片

图3、不同配准方法配准一幅220 × 220 × 184脑图像平均计算时长(单位:分钟)。

三.结论与讨论

本文对比了近几年基于深度学习的医学图像配准文章,根据深度学习种类对其分类并简要描述,然后从不同角度对相关问题进行了总结。总体上,对比近期发表的相关文章,可以发现一个趋势,即研究在逐渐从部分依靠深度学习(如利用深度学习网络结果,初始化传统方法优化策略)到完全依靠深度学习(即基于非监督学习的配准方法,学习网络直接获得配准图像)实现配准任务的方向转变,深度学习在配准任务上发挥越来越大的作用与潜能,配准效果与传统经典方法相近,甚至更好。我相信如果妥善解决训练数据集匮乏问题,能更好地发挥基于深度学习的配准方法的优势,实现配准效果更好,速度更快。


参考文献

  1. A. Viergever, A. Maintz, W. Pluim, et al. A survey on deep learning in medical image analysis. Medical Image Analysis 33(2016) 140-144.
  2. H. Sokooti, B. de Vos, F. Berendsen, et al. Nonrigid image registration using multi-scale 3D convolutional neural networks. MICCAI(2017), LNCS 10433, 232-239.
  3. V. Dalca, G. Balakrishnan, J. Guttag, R. Sabuncu. Unsupervised Learning for Fast Probabilistic Diffeomorphic Registration. arXiv:1805.04605v1 [cs.CV], 2018. arXiv: 180504605v1.
  4. J. Fan, X. Cao, P. Yap, D. Shen. BIRNet:_Brain Image Registration Using Dual-Suervised Fully Convolutional Networks.
  5. Koen A. J. Eppenhof, Maxime W. Lafarge, Pim  Moeskops, Mitko  Veta, Josien P. W. Pluim, "Deformable image registration using convolutional neural networks," Proc. SPIE 10574, Medical Imaging 2018: Image Processing,105740S (2 March 2018); doi: 10.1117/12.2292443.
  6. X. Cao, J. Yang, J. Zhang, Q. Wang, D. Shen. Deformable Image Registration Using Cue-aware Deep Regression Network. DOI 10.1109/TBME.2018.2822826, IEEE Transactions on Biomedical Engineering.
  7. Bob D. de Vos, F. F. Berendsen, M. A. Viergever, M. Staring, and I. Iˇsgum. End-to-End Unsupervised Deformable Image Registration with a Convolutional Neural Network. arXiv:1704.06065v1 [cs.CV], 2017. arXiv: 1704.06065v1.
  8. J. Krebs , T. Mansi, B. Mailh´e, N. Ayache, and H. Delingette. Learning Structured Deformations using Diffeomorphic Regsitration. arXiv:1804.07172v1 [cs.CV], 2018. arXiv: 1804.07172v1.
  9.  A. Sheikhjafari, K. Punithakumar. Unsupervised Deformable Image Registration with Fully Connected Generative Neural Network.
  10. Miao, S., Wang, Z. J., and Liao, R. A CNN regression approach for real-time 2D/3D registration. IEEE TMI 35(5), 1352–1363 (2016).
  11. M. Jaderberg, K. Simonyan, A. Zisserman, and K. Kavukcuoglu. Spatial Trans-former Networks. arXiv:1506.02025 [cs], 2015. arXiv: 1506.02025.

你可能感兴趣的:(配准,CNN)