CE-Net: Context Encoder Network for 2D Medical Image Segmentation

CE-Net:用于2D医学图像分割的上下文编码器网络

以下是用谷歌翻译的,仅供参考,图就没放。

摘要 - 医学图像分割是医学图像分析的重要步骤。随着卷积神经网络在图像处理中的快速发展,深度学习已被用于医学图像分割,如视盘分割,血管检测,肺部分割,细胞分割等。以前,已经提出了基于U-net的方法。 。然而,连续的汇集和跨步卷积操作导致一些空间信息的丢失。在本文中,我们提出了一个上下文编码器网络(称为CE-Net)来捕获更多的高级信息并保留用于2D医学图像分割的空间信息。 CENet主要包含三个主要组件:特征编码器模块,上下文提取器和特征解码器模块。我们使用预训练的ResNet块作为固定特征提取器。上下文提取器模块由新提出的密集的迂回卷积(DAC)块和剩余的多内核池(RMP)块形成。我们将提出的CE-Net应用于不同的2D医学图像分割任务。综合结果表明,该方法优于原始U-Net方法和其他最先进的视盘分割,血管检测,肺部分割,细胞轮廓分割和视网膜光学相干断层扫描层分割方法。

索引术语 - 医学图像分割,深度学习,上下文编码网络

1、介绍

医学图像分割通常是医学图像分析中的重要步骤,如视盘分割[1],[2],[3]和血管检测[4],[5],[6],[7],[8] ]在视网膜图像,细胞分割[9],[10],[11]电子显微镜(EM)记录,肺部分割[12],[13],[14],[15],[16]和脑分割[计算机断层扫描(CT)和磁共振成像(MRI)中的17],[18],[19],[20],[21],[22]。以前的医学图像分割方法通常基于边缘检测和模板匹配[15]。例如,圆形或椭圆形的霍夫变换用于视盘分割[23],[3]。模板匹配也用于MRI序列图像中的脾脏分割[24]和脑CT图像中的心室分割[22]。还提出了可变形模型用于医学图像分割。已经提出了使用水平集[25]的基于形状的方法用于心脏MRI图像的二维分割和前列腺MRI图像的三维分割。此外,基于水平集的可变形模型被用于腹部CT图像的肾脏分割[26]。可变形模型还与Gibbs先前模型集成,用于分割器官的边界[27],采用进化算法和统计形状模型从CT体积中分割肝脏[16]。在视盘分割中,还提出并采用了不同的可变形模型,如数学形态学,全局椭圆模型,局部可变形模型[28]和修正的活动形状模型[29]。

提出了基于学习的方法来分割医学图像。 Aganj等人。 [30]提出了基于局部质心的方法,用于在X射线和MRI图像中基于无监督学习的图像分割。 Kanimozhi等。 [31]应用静态小波变换得到特征向量,并采用自组织映射来处理这些特征向量,用于无监督的MRI图像分割.Tong et al。 [32]结合字典学习和稀疏编码来分割腹部CT图像中的多器官。基于像素分类的方法[33],[1]也是基于学习的方法,其使用预注释数据基于像素训练分类器。然而,选择像素并提取特征以从较大数量的像素训练分类器并不容易。程等人。 [1]使用超像素策略来减少像素数量,并使用超像素分类执行视盘和杯子分割。田等人。 [34]采用基于超像素的图切割方法来分割3D前列腺MRI图像。在[35]中,基于超像素学习的方法与受限制的形状约束区域相结合,以从CT图像中分割肺部。

这些方法的缺点在于利用手工制作的特征来获得分割结果。一方面,很难为不同的应用设计代表性特征。另一方面,适用于一种类型图像的设计特征通常在另一种类型上失败。因此,缺乏提取特征的一般方法。

随着卷积神经网络(CNN)在图像和视频处理[36]和医学图像分析[37],[38]中的发展,使用深度学习的自动特征学习算法已成为医学图像分割的可行方法。基于深度学习的分割方法是基于像素分类的学习方法。与传统像素或超像素分类方法不同,它们经常使用手工制作的特征,深度学习方法学习特征并克服

手工制作的功能。

早期用于医学图像分割的深度学习方法主要基于图像块。 Ciresan等人。 [39]提出基于斑块和滑动窗口策略在显微镜图像中分割神经元膜。然后,Kamnitsas等人。 [40]采用多尺度3D CNN架构,其具有完全连接的条件随机场(CRF),用于增强基于补片的脑病变分割。显然,该解决方案引入了两个主要缺点:由滑动窗口引起的冗余计算以及无法学习全局特征。

  随着端到端完全卷积网络(FCN)的出现[41],Ronneberger等人。 [10]提出了Ushape Net(U-Net)生物医学图像分割框架。 U-Net已经在电子显微镜记录中的神经元结构分割和光学显微镜图像中的细胞分割方面显示出有希望的结果。它已成为生物医学图像分割任务的流行神经网络架构[42],[43],[44],[45]。 Sevastopolsky等。 [43]应用U-Net直接分割视网膜眼底图像中的视盘和视杯,用于青光眼诊断。罗伊等人。 [44]使用类似的网络进行光学相干断层扫描(OCT)图像中的视网膜层分割。诺曼等人。 [42]使用U-Net从膝盖MRI数据中分割软骨和半月板。 U-Net也适用于从CT图像中直接分割肺[45]。

对于不同的医学图像分割任务,已经在U-Net上进行了许多变化。傅等人。 [4]采用CRF收集多阶段特征图,以提高血管检测性能。后来,通过在U-net架构中增加多尺度输入和深度监控,提出了一种改进的U-Net框架(称为M-Net)[2],用于联合光盘和杯子分割。深度监督主要介绍与中期特征相关的额外损失函数。基于深刻的监督,陈等人。 [46]提出了一个Voxresnet来分割体积大脑,Dou等人。 [47]提出3D深度监督网络(3D DSN)自动分割CT体积的肺。

 为了增强U-Net的特征学习能力,已经提出了一些新模块来替换原始块。 Stefanos等。 [48]提出了一个分支残余U网络(BRU-net)来分割病理性OCT视网膜层,用于老年性黄斑变性诊断。 BRU-net依赖于残余连接和扩张的卷积来增强最终的OCT视网膜层分割。吉布森等人。 [49]在每个编码器块中引入密集连接,以自动分割腹部CT上的多个器官。库马尔等人。 [21]提出了一种用于婴儿脑MRI分割的InfiNet。除了基于U-Net的医学图像分割的上述成就外,一些研究人员还在修改U-Net进行一般图像分割方面取得了进展。彭等人。 [50]提出了一种新的全局卷积网络来改进语义分割。林等人。 [51]提出了一种多路径细化网络,它包含残余卷积单元,多分辨率融合和链式残差池。赵等人。 [52]采用空间金字塔池来收集提取的特征映射,以提高语义分割性能。

U-Net及其变体的一个常见局限是连续的池化操作或卷积跨度降低了特征分辨率,以学习越来越抽象的特征表示。虽然这种不变性有利于分类或物体检测任务,但它常常会阻碍需要详细空间信息的密集预测任务。直观地说,在中间阶段维护高分辨率特征图可以提高分割性能。但是,它会增加要素图的大小,这不是最佳的

加速培训,减轻优化难度。因此,在加速训练和保持高分辨率之间存在权衡。通常,U-Net结构可以被认为是编码器 - 解码器架构。编码器旨在逐步减少特征图的空间维度,并捕获更多高级语义特征。解码器旨在恢复对象细节和空间

尺寸。因此,在编码器中捕获更高级别的特征并在解码器中保留更多空间信息以提高图像分割的性能是自发的。

由于上述讨论以及使神经网络更宽更深的Inception-ResNet结构[53],[54],我们提出了一种新的密集的迂回卷积(DAC)块来应用迂回卷积。原始的UNet架构通过在编码路径中采用连续的3?3卷积和池化操作,在有限的缩放范围内捕获多尺度特征。我们提出的DAC模块可以通过注入具有多尺度萎缩卷积的四个级联分支来捕获更广泛和更深的语义特征。在该模块中,利用剩余连接来防止梯度消失。此外,我们还提出了一个由空间金字塔池[55]推动的剩余多核池(RMP)。 RMP块通过采用各种大小的池化操作进一步编码从DAC模块提取的对象的多尺度上下文特征,而没有额外的学习权重。总之,建议DAC模块使用多尺度的回波卷积提取丰富的特征表示,然后是RMP

使用多规模池操作阻止进一步的上下文信息。将新提出的DAC模块和RMP模块与骨干编码器 - 解码器结构相结合,我们提出了一种名为CENet的新型上下文编码器网络。它依赖于DAC模块和RMP模块来获得更多抽象特征并保留更多空间信息以提高医学图像分割的性能。

这项工作的主要贡献概括如下:

1)我们提出了一个DAC模块和RMP模块来捕获更多高级功能并保留更多空间信息。

2)我们将提出的DAC模块和RMP模块与编码器 - 解码器结构集成在一起,用于医学图像分割。

3)我们将所提出的方法应用于不同的任务,包括视盘分割,视网膜血管检测,

肺分割,细胞轮廓分割和视网膜OCT层分割。结果表明,该方法优于其中最先进的方法

不同的任务。

本文的其余部分安排如下。第二节详细介绍了提出的方法。第三节介绍了实验结果和讨论。在第四节中,我们得出了一些结论。

 

 

图1.拟议的CE-Net的图示。 首先,图像被馈送到特征编码器模块,其中从ImageNet预训练的ResNet-34块用于替换原始的U-Net编码器块。 提出上下文提取器以生成更高级的语义特征映射。 它包含密集的atrous卷积(DAC)块和残余多内核池(RMP)块。 最后,将提取的特征馈送到特征解码器模块中。 在本文中,我们采用解码器块来扩大特征尺寸,取代原来的上采样操作。 解码器块包含11个卷积和3 3个解卷积操作。 基于跳过连接和解码器块,我们获得掩模作为预测预测图。

2.方法

拟议的CE-Net由三个主要部分组成:

特征编码器模块,上下文提取器模块和

特征解码器模块,如图1所示。

A.特征编码器模块

在U-Net架构中,每个编码器块包含两个

卷积层和一个最大池池。 在提出的方法中,我们将其替换为特征编码器模块中预先训练的ResNet-34 [53],它保留了前四个特征提取块,没有平均合并层和完全连接的层。 与原始块相比,ResNet增加了快捷机制,避免了梯度消失,加速了网络收敛,如图1(b)所示。 为方便起见,我们使用经过预先训练的ResNet的修改后的U-net作为骨干方法。

B.上下文提取器模块

上下文提取器模块是新提出的模块,由DAC块和RMP块组成。 该模块提取上下文语义信息并生成更多高级特征映射。

 

图2.萎缩卷曲的插图

 

  1. Atrous卷积:在语义分割任务和对象检测任务中,深度卷积层已经证明在提取图像的特征表示方面是有效的。然而,池化层导致图像中语义信息的丢失。 为了克服这种限制,采用了萎缩卷积进行密集分割[56]:

 

图3.密集的萎缩卷积块的图示。 它包含四个级联分支,随着萎缩卷积数量的逐渐增加,从1到1,3和5,然后每个分支的感受域将是3,7,9,19。因此,网络可以提取特征 来自不同的规模。

 

最初提出的迂回卷积用于小波变换的有效计算。 数学上,二维信号下的萎缩卷积计算如下:

 

其中输入特征映射x和滤波器w的卷积产生输出y,并且atrous rate r对应于我们对输入信号进行采样的步幅。 它相当于输入x和上采样滤波器的旋转,它是通过在每个空间维度上的两个连续滤波器值之间插入r�1个零点而产生的(因此,名称atrous convolution,其中法语单词atrous表示英语中的空洞)。标准卷积是一种特殊的 对于速率r = 1的情况,并且有害卷积允许我们通过改变速率值来自适应地修改滤波器视场。 参见图2以进行说明。

2)密集的Atrous卷积模块:Inception [54]和ResNet [53]是深度学习中的两种经典和代表性的体系结构。初始序列结构采用不同的感受域来拓宽架构。相反,ResNet采用快捷连接机制来避免爆炸和消失的梯度。它使神经网络首次突破数千层。 Inception-ResNet [54]块结合了Inception和ResNet,继承了两种方法的优点。然后它成为深度CNN领域的基线方法。在Inception-ResNet-V2模块和atrous卷积的推动下,我们提出密集的atrous卷积(DAC)块来编码高级语义特征映射。如图3所示,萎缩卷曲以级联模式堆叠。在这种情况下,DAC有四个级联分支,随着自然卷积数量的逐渐增加,从1到1,3和5,然后每个分支的感受野将是3,7,9,19。它采用不同的感知领域,类似于Inception结构。在每个atrous分支中,我们应用一个1?1卷积进行整流线性激活。最后,我们直接

添加原始功能与其他功能,如ResNet中的快捷方式。由于所提出的块看起来像一个密集连接的块,我们将其命名为密集的迂回卷积块。通常,大接收字段的卷积可以提取并生成更大的抽象特征

对象,而小接收场的卷积对小物体更好。通过组合不同动态速率的迂回卷积,DAC块能够提取具有各种尺寸的对象的特征。

3)残差多核池:分割中的一个挑战是医学图像中对象大小的大变化。例如,中期或晚期的肿瘤可能比早期的肿瘤大得多。在本文中,我们提出了一个残余的多内核池来解决这个问题,它主要依靠多个有效的视场来检测不同大小的对象。

感受野的大小粗略地决定了我们可以使用多少上下文信息。一般的最大池操作只使用单个池内核,例如2 2。

如图4所示,提议的RMP使用四个不同大小的感知字段对全局上下文信息进行编码:2 2,3 3,5 5和6 6.四级输出包含

各种尺寸的功能图。为了减少权重的维度和计算成本,我们在每个池的级别之后使用11卷积。它将要素图的尺寸减小到原始尺寸的1 N,其中N表示原始要素图中的通道数。然后我们对低维特征图进行上采样,以通过双线性插值获得与原始特征图相同的尺寸特征。最后,我们将原始特征与上采样特征映射相结合。

C.特征解码器模块

采用特征解码器模块恢复从特征编码器模块和上下文提取器模块中提取的高级语义特征。跳过连接从编码器向解码器获取一些详细信息,以补救由于连续而导致的信息丢失

汇集和跨越卷积行动。类似于[48],我们采用了一个有效的块来提高解码性能。简单的放大和反卷积是U形网络中解码器的两种常见操作。放大操作通过线性插值增加图像尺寸,而反卷积(也称为转置卷积)采用卷积运算来放大图像。直观地,转置卷积可以学习自适应映射以恢复具有更详细信息的特征。因此,我们选择使用转置卷积来恢复解码器中的更高分辨率特征。如图1(c)所示,它主要包括11卷积,3 3转置卷积和1 1卷积连续。基于跳过连接和解码器块,特征解码器模块输出与原始输入相同大小的掩码。

D.损失函数

我们的框架是一个端到端的深度学习系统。 如图1所示,我们需要训练所提出的方法来预测每个像素是前景或背景,这是像素方式的分类问题。 最常见的损失函数是交叉熵损失函数。

然而,诸如视神经盘和视网膜血管的医学图像中的物体通常占据图像中的小区域。交叉熵损失对于这样的任务不是最佳的。 在本文中,我们使用Dice系数损失函数[57],[58]来代替常见的交叉熵损失。 比较实验和讨论也在以下部分中进行。 Dice系数是一种重叠度量,广泛用于评估地面实况可用时的分割性能,如公式(2)所示:

 

 

 

 

 

其中N是像素数,p(k; i)2 [0; 1]和g(k; i)2 f0; 1gdenote分别预测了k类的概率和地面实况标签。 K是类号,而P k!k = 1是类权重。 在我们的论文中,我们根据经验设置!k = 1 K.最终的损失函数定义为:

 

其中,Lreg表示用于避免过拟合的正则化损失(也称为重量衰减)[59]

为了评价CE-Net的性能,我们将该方法应用于五个不同的医学图像分割任务:视盘分割、视网膜血管检测、肺分割、细胞轮廓分割和视网膜OCT层分割

3.实验

A:实验装置

在本节中,我们首先介绍用于培训和测试阶段的图像预处理和数据增强策略。

1)训练阶段:由于训练图像数量有限,对数据集进行了扩充,降低了[36]过拟合的风险。首先,我们雄心勃勃地进行数据扩充,包括水平翻转、垂直翻转和对角翻转。这样,原始数据集中的每个图像都被扩充到222=8个图像。其次,图像预处理的解决方案主要包括从90%到110%的缩放,HSV颜色空间的颜色抖动和图像的随机移动。随机图像预处理方法可以对数据进行增强

增强能力。

2)测试阶段:为了提高医学图像分割方法的鲁棒性,我们也采用了测试增强策略,如[60],[61],包括图像水平翻转、垂直翻转和对角翻转(相当于每幅图像预测8次)。然后我们对这8个预测进行平均,得到最终的预测图。所有基线方法在测试阶段使用相同的策略。

3)实验设置:我们提出的网络基于在ImageNet上预训练的ResNet。实现基于公共PyTorch平台。培训和测试平台是Ubuntu 16.04系统,带有NVidia GeForce Titan显卡,内存为12g。

在训练过程中,除Adam优化外,我们采用了批量大小为8、动量为0.9、重量衰减为0.0001的小批量随机梯度下降法(SGD)。我们使用SGD优化,因为最近的研究[62][63]表明,虽然Adam优化收敛得更快,但SGD通常可以获得更好的性能。此外,我们使用保利

学习速率的政策,学习速率乘以(1最大历元是100。我们已经发布了

代码在Github 1。

B.视盘分割

我们首先测试了提出的ce网络在视盘分割中的应用。我们的实验使用了ORIGA[66]、Messidor[67]和RIMONE- R1[68]三个数据集。ORIGA数据集包含650张尺寸为30722048的图像。它分为两组:训练组A,测试组B[69]。在本文中,我们使用相同的数据集分区来训练和测试我们的模型。Messidor dataset是由Messidor程序合作伙伴提供的公共数据集。它由1200幅不同大小的图像组成:1440960、22401488、23401536。Messidor数据集最初是为糖尿病视网膜病变(DR)分级而收集的。后来,每张图片的光盘边界也从官方网站2中提供。RIM-ONE数据集由三个版本组成。图像的数目分别为169、455和159。在本文中,我们使用了第一个发布的数据集(RIM-ONE-R1),在RIM-ONE-R1数据集中有五个不同的专家注释。我们按照[70]中的划分进行培训和测试

Messidor和RIM-ONE-R1数据集中的图像。应该注意的是ORIGA和Messidor数据集提供完整的图像,而RIM-ONE-R1提供裁剪后的图像。

为了根据原始分辨率分割视网膜眼底图像中的视盘,我们按照文献[71]的要求,在最亮的点周围裁剪了800 - 800个区域,但rim - 1 - r1数据集已经裁剪并提供了视盘区域。

为了评估性能,我们采用了重叠误差,这是常用来评估视盘分割精度的方法:

 

其中S和G分别表示分割后的视盘和人工地面真值视盘。除平均值外,我们还计算了相应的标准差。

我们将我们的方法与最先进的算法进行比较。比较了五种不同的算法,包括超像素分类方法[1]、U-Net[10]、M-Net方法[2],速度更快

RCNN方法[72]和DeepDisc方法[65]。所有的基线模型都是从它们最初的实现中采用的。

表I给出了这些方法重叠误差的均值和标准差。我们可以看到,CE-Net的性能优于目前最先进的视盘分割

方法。特别是,它在ORIGA数据集中实现了0.058的重叠误差,通过最新的更快的RCNN或DeepDisc方法,相对于0.069减少了15.9%。在Messidor数据集中,CE-Net的重叠误差为0.051,与0.064相比,深度盘的相对误差降低了20.3%。RIM-ONE-R1数据集有五个独立的注释。在我们的实验中,我们遵循[70]中的相同设置,使用交叉验证来获得结果。虽然与Expert 2和Expert 3的注释相比,CE-Net的性能略差于DeepDisc,但总体结果仍然表明CE-Net优于DeepDisc等方法。

我们还在图5中展示了四个样本结果,以直观地将我们的方法与一些竞争方法进行比较,包括基于超像素的方法、M-Net和DeepDisc。这些图片

实验结果表明,该方法分割效果较好。

C.视网膜血管检测

第二个应用是视网膜血管检测。我们使用公共驱动器[73]数据集,其中包含40张图像。在DRIVE中,提供了两个专家手册注释,其中第一个注释在文献[4]中被选择为性能评估的基本事实。40幅图像分为20幅训练图像和20幅测试图像。为了比较血管检测的性能,我们计算了灵敏度(Sen)和准确度(Acc)两个评价指标,这两个指标也在[4][6]中计算。

 

其中TP、TN、FP、FN分别表示真阳性、真阴性、假阳性、假阴性的个数。此外,我们还引入了面积下的接收机运行特性曲线(AUC),以衡量分割性能。

我们将提出的CE-Net与现有的[5]、[8]、[7]算法进行了比较。此外,一些经典的基于深度学习的方法[74],[10],[4]也被纳入比较。表二显示了这些方法之间的比较。通过比较,CE-Net在Sen、Acc和AUC中分别达到0.8309、0.9545和0.9779,优于其他方法。与主干相比,Sen值从0.7781增加到0.8309,增加6.8%,Acc值从0.9477增加到0.9545,AUC值从0.9705增加到0.9779,说明所提出的DAC和RMP块也有利于视网膜血管的检测。我们在图6中给出了一些可视化比较的例子。

D .肺分割

下一个应用是肺分割任务,即在肺结节分析(LUNA)比赛的二维CT图像中分割肺结构。LUNA比赛最初是为了以下挑战而进行的:结节检测和假阳性减少。由于分段肺是进一步研究肺结节的基础,我们采用challenge数据集来评估我们提出的CE-Net。数据集包含534个二维样本(512512像素),每个样本都有各自的标签图像,可以从官方网站3免费下载。我们使用80%的图像进行训练,其余的用于测试,并进行交叉验证。评价指标包括重叠误差、准确度和灵敏度,与视盘分割和血管检测中的相似。除平均值外,我们还计算了表三中相应的标准差。

由表三对比可知,CE-Net的重叠误差为0.038,灵敏度为0.8309,准确度为0.9545,优于U-Net。我们还将CE-Net与主干进行了比较,重叠误差从0.044减小到0.038,降低13.6%,敏感性评分从0.967提高到0.980,准确率从0.988提高到0.990,进一步证明我们提出的DAC和RMP块对肺分割是有益的。在图6中,我们也给出了一些肺分割的可视化比较例子。

 

 

图5所示。样本的结果。从左至右:原始眼底图像,采用基于超像素的方法[1]、M-Net[2]、DeepDisc[65]、CE-Net和ground-truth mask得到最先进的结果。

 

 

E.细胞轮廓分割

第四种应用是细胞轮廓分割。细胞分割的任务是在电镜下对神经元结构进行分割。数据集由EM challenge提供,该挑战始于2012年ISBI,目前仍对新贡献开放[75]。培训集包含30张图片(512512像素),可从官方网站下载。测试集由30张图片组成,并且是公开的。然而,相应的

基本事实是未知的。通过将预测图发送给组织者,组织者将计算并发布测试集上的结果。从官方网站的声明来看,以下指标是对分割结果进行量化评价的最佳指标:边界细化后的林地限制rand评分

(V Rand)和边界细化后的前缘限制信息理论得分(V Info)。V Rand算法主要是将Rand分割分数和Rand合并分数结合起来计算加权谐波均值,用来衡量分割性能。同样,V信息主要计算信息论得分的加权调和均值。分数越高表示分割效果越好

分数越高表示分割性能越好。这两种算法的具体计算过程和更多细节可以在[76]中找到。

我们将CE-Net与原始的U-Net和主干网进行比较,最终结果如表4所示。OurCE-Net的性能优于U-Net和主干网。结果表明,本文提出的ce网络对细胞轮廓分割任务是有效的。我们也给出了一些例子,用于视觉比较的inFig。虽然没有确凿的事实根据。

 

F视网膜OCT层分割

上述四个应用程序是针对两类分割问题进行的,其中我们只需要将前景对象从背景中分割出来。在本文中,我们也证明了我们的方法是适用于多类分割任务。我们以视网膜OCT层分割为例,将CE-Net应用于视网膜11层分割[77]。该数据集包含20个3D卷,每个卷有256个2D扫描。手工标定10个边界,将每个二维图像划分为11个部分:对应于内部限制膜(ILM)的边界1;神经纤维层与神经节细胞层边界2 (NFL/GCL);内丛状层与内核层边界3 (IPL/INL);内核层与外丛状层边界4 (INL/OPL);外丛状层与外核层边界5 (OPL/ONL);与外极限膜(ELM)对应的边界6;内段上边界对应的边界7(上)为;内段下边界对应的边界8(低为);视网膜色素上皮(OS/RPE)与视网膜外段边界9;Bruchs膜与脉络膜(BM/ choroid)的边界10。为了评价其性能,我们采用了均值绝对误差[77],该方法已被广泛用于评价视网膜OCT层分割的准确性。

我们将我们提出的方法与一些目前最先进的OCT层分割方法进行了比较:Topcon内置方法in[77]、重构去斑(SRR)方法[77]、FCN[41]和U-Net[10]。

性能对比如表五所示。与U-Net和主干方法相比,我们的CENet总体平均绝对误差为1.68,相对于2.45和2.18分别降低了31.4%和22.9%。与Topcon内置方法和SRR相比,CE-Net在大多数情况下都能取得较好的效果。这表明我们提出的ce网络也可以应用于多类分割任务。此外,我们还进行了交叉熵损失与骰子损失的比较实验。由表V可知,有骰子损失的ce网络优于有交叉熵损失的ce网络。

我们也在图7中给出了一些样本结果,以直观地将我们的方法与U-Net和主干方法进行比较。图像清晰地显示了我们的ce网络更准确的分割结果。

 

对于OD分割,重叠误差由0.115降低到0.075,降低34.8%。视网膜血管检测的Acc和AUC分别由0.939和0.960提高到0.943和0.971。结果表明,预训练的ResNet块是有益的。

G .消融研究

为了证明的有效性pretrained ResNet, DAC块和RMP块CE-Net提议,我们进行以下消融研究使用ORIGA和驱动数据集作为例子:消融研究采用pretrained ResNet模型:我们的方法是基于U-Net,因此U-Net是最基本的基准模型。为了提高UNet的学习能力,我们用剩余块代替了UNet原有的编码块。我们将经过改进的u形网络称为“骨干”网络,其中包含经过预处理的残差块和特征解码器。最近的工作[78]指出,ImageNet预训练在很大程度上有助于规避优化问题,并且预训练权重的微调收敛速度要快于从头开始。我们还进行了实验,比较了训练前和训练后的结果。图8为两种情况下的损失变化情况。正如我们所看到的,在训练前的情况下,损失比没有训练时减少得更快。表VI显示了分割结果。通过采用预训练的ResNet块,主干网方法取得了较好的性能。

致密无瓣卷积块消融研究:提出的DAC块采用不同速率的无瓣卷积,组装在切入样块中。因此,我们首先进行实验来验证无源卷积的有效性。我们使用正则卷积来代替DAC块中的atrous卷积(即主干+ DAC w/o atrous)。如表六所示,我们提出的DAC模块(主干+ DAC with atrous)在OD分割时将重叠误差从0.073降低到0.061,降低了16.4%,提高了Acc和AUC在视网膜血管检测中的作用。这表明,与常规卷积相比,atrous卷积有助于提取高级语义特征。

我们还比较了我们提出的DAC块与常规的incepep2块(称为主干+ incepepepep2块)。比较结果表明,DAC块具有较好的性能规则的inception块,OD分割的重叠误差从0.068到0.061相对降低了10.3%。最后,重叠误差由骨干的0.075减小到0.061(骨干+ DAC),降低了18.7%。这表明,所提出的DAC块能够进一步提取全局信息,从而得到高水平的语义特征图分辨率,这对我们的分割任务很有用。残差多核池模块消融研究:表VI还显示了RMP的影响,提高了OD分割的性能。带有RMP模块的主干称为“主干+ RMP”。与主干相比,OD分割的重叠误差由0.075降低到0.061,下降18.7%;视网膜血管检测Acc和AUC评分由0.943和0.971提高到0.952和0.974。RMP模块可以对全局信息进行编码,改变特征图的组合方式。

相似复杂度的网络消融研究:研究人员发现复杂度是网络能力的体现[79],复杂度的增加往往会带来更好的性能。因此,有人担心这些改进可能来自网络复杂性的增加。为了减轻这种担忧,我们将网络与具有类似复杂性的网络进行比较。在本文中,我们将它与前面提到的由常规Inception- resnet - v2块(主干+ Inception- ResNet-block)支持的主干进行了比较。由表六可知,CE-Net较好,OD分割的重叠误差由0.065降低到0.058,Acc和AUC的分值由0.951和0.974提高到0.955和0.978。

4.结论

医学图像分割在医学图像分析中占有重要地位。本文提出了一种医学图像分割的端到端深度学习框架CE-Net。与U-Net相比,CE-Net在特征编码中采用了预训练的ResNet块。将新提出的密集无源卷积块和剩余多核池集成到ResNet改进的UNet结构中,以捕获更多的高级特征,并保存更多的空间信息。我们的方法可以应用到一个新的应用,通过微调我们的模型使用新的训练数据和手动地面真相。实验结果表明,该方法能够较好地完成视盘分割、视网膜血管检测、肺分割、细胞轮廓分割和视网膜OCT层分割等不同任务的医学图像分割。该方法具有通用性,可应用于其它二维医学图像分割任务。在本文中,我们的方法在二维图像上进行了验证,将其扩展到三维数据将是一个可能的未来工作。

 

 

以上是简单翻译,可以参考一下,另外还有https://blog.csdn.net/u012193416/article/details/88585323,也有简单的介绍

Atrous卷积:这个介绍比较生动https://blog.csdn.net/yunyi4367/article/details/78483740

如有问题可相互交流

你可能感兴趣的:(论文翻译)