深度学习论文精读05——用于乳腺癌组织病理学图像分类的深度特征

用于乳腺癌组织病理学图像分类的深度特征
标题:Deep Features for Breast Cancer Histopathological Image Classifification
链接:查看文献原文
论文翻译参考:查看文献翻译

文章目录

  • 一、背景
  • 二、主要内容
  • 三、BreakHis数据集
          • 来自breakhis数据库的图像样本。不同的区域,属于同一张乳腺恶性肿瘤(用他染色),见于不同的放大因子:(a)40 × ,(b)100 × ,(c)200 ×,和(d) 400 ×。
  • 四、DeCAF特征
  • 五、实验
          • alexnet模型的例证,用作caffe模型的基线。在右下角,列出了顶层的引用名称。
  • 六、总结

一、背景

癌症目前是一种在全球范围内崛起的致命疾病。在几种现有类型的癌症中,乳腺癌(BC)具有两个非常令人关注的特征:1)它是全世界女性中最常见的癌症; 2)与其他类型的癌症相比,它具有很高的死亡率。由于组织病理学分析仍然是最广泛使用的BC诊断方法,病理学家在显微镜下对组织学样本进行视觉检查,大部分诊断仍然在继续进行**,组织病理学图像的自动分类可以使得BC诊断更加快速并且不容易出错**。然而,BC组织病理学识别系统的工作主要和小数据集一起工作,对于开发高精度图像识别系统有很大限制

二、主要内容

本文主要聚焦于评估DeCAF特征(也称为神经代码)用于BC组织病理学图像分类,将BreaKHis数据集作为基准,目标是利用预先训练的CNN从网络的不同层提取DeCAF特征,以了解这些特征是否足以与视觉特征描述符竞争,以及它们如何与基于深度学习的方法进行比较,如CNN从头开始训练问题,以及独立放大CNN方法。为了实现这些目标,本文利用多特征向量(MFV)框架,在不同场景中评估此特征集。在这种情况下,不仅可以在使用基于补丁的方法时评估DeCAF特征的性能,还可以结合来自预训练CNN的不同层的DeCAF特征。

三、BreakHis数据集

BreakHis数据集共收集了7,909张图片,分为良性和恶性两种,分别以四种不同的放大系数收集,分别为40倍、100倍、200倍和400倍。样本来自乳腺组织活检切片,进行染色。这些样本准备用于组织学研究,并由Prevenc¸a˜o&Diagnose(P&D)实验室的病理学家标记。获得的数字图像以3通道RGB(红-绿-蓝)TrueColor(24位色深,每通道8位)色彩空间提供,尺寸为700×460像素。下图展示了这组图像的样本,在四个相应的放大系数下。
自从最近BreaKHis数据集发表以来,人们已经提出了一些使用该数据集的方法。对六个不同的视觉特征描述符的不同组合以及不同的分类器进行了评估。他们报告的准确率从80%到85%不等,这可能取决于图像的放大系数。鉴于CNN
通常需要大的数据集,利用随机补丁的技巧,其中包括在训练和测试阶段提取子图像。
在训练阶段,本文通过在随机定义的位置上提取斑块来增加训练集。在测试阶段,从网格中提取斑块,在对每个斑块进行分类后,将其分类结果合并。实验表明,通过这种方法,可以把观察到的准确率增加大约4到6个百分点。

来自breakhis数据库的图像样本。不同的区域,属于同一张乳腺恶性肿瘤(用他染色),见于不同的放大因子:(a)40 × ,(b)100 × ,(c)200 ×,和(d) 400 ×。

深度学习论文精读05——用于乳腺癌组织病理学图像分类的深度特征_第1张图片

四、DeCAF特征

DeCAF功能的构思包括从图像中提取特征作为分类器的输入,和其他特征集一样。DeCAF特征与当前使用CNN的标准之间的主要区别在于,先前训练的CNN被简单地重新用作特征提取器,其输出被馈送到另一个分类器,训练出关于特定问题的数据。详细地说,DeCAF特征集包括重用预训练神经网络(通常是CNN)的架构和参数,通过前馈步骤传递输入图像,并使用网络的给定层的输出作为输入。
为了实现这一想法,我们使用预先训练的BVLC CaffeNet Model 1(或简称为CaffeNet),该模型包含对AlexNet模型的轻微修改鉴于它没有经过数据增强训练,并且池化和归一化层的顺序被切换,即在CaffeNet池中进行归一化。CaffeNet模型已经在ImageNet数据集上进行了培训,在验证集上获得了57.4%的前1准确度和80.4%的前5准确度。鉴于类的数量和可变性以及大量样本,主要假设是从在该数据集上训练的CNN获得的表示定义了非常好的通用特征提取器。
为了将CaffeNet模型转换为特征提取器,本文利用CNN最顶层的输出,例如层fc6,fc7和fc8。然后,对应于那些层的输出的向量可以用作分类器的输入,仅对任务特定数据进行训练。

五、实验

考虑到图像级别和患者级别的准确度指标,独立评估每个级别的准确度。第二个度量标准的原因在于,通常,在医学成像中,决策是在患者方面做出的。为了更好地理解,本文定义了如下两个指标。
图像级精度对应于正确分类图像总数的分数:深度学习论文精读05——用于乳腺癌组织病理学图像分类的深度特征_第2张图片(1)
患者级精确度对应于每位患者的平均图像级准确度:在这里插入图片描述(2)

CaffeNet模型中的层数较多,只关注的三个最顶层提取特征。这些层分别由4,096,4,096和1,000维组成。鉴于这些向量的高维性,本文使用Logistic回归作为基本分类器,因为它在训练和分类阶段都很快,并且可以提供输出概率。
实验按以下方式组织。通过考虑基于补丁的识别和不同的配置,首先通过利用fc6,fc7或fc8层的输出单独评估DeCAF功能集的使用,这些实验的主要目的是观察不同层的DeCAF特征的准确性差异,以及进行基于贴片的分类时的影响。
然后,进行类似的实验,但同时考虑多个特征集的组合,即来自网络的多个层的特征。基于MFV框架实现了这个想法,其中功能组合考虑了补丁级别的输出。
为了与现有技术直接比较,使用的五重复制的相同分区可用于数据集的下载页面。

alexnet模型的例证,用作caffe模型的基线。在右下角,列出了顶层的引用名称。

深度学习论文精读05——用于乳腺癌组织病理学图像分类的深度特征_第3张图片

六、总结

本文使用BreaKHis数据集展示了使用DeCAF特征进行乳腺癌识别的研究。BreaKHis数据集的大尺寸可以在同一数据集上比较从头开始训练的CNN从自然图像训练的另一个CNN重新利用的DeCAF特征,这通常是医学图像数据集不可能的,因为它们太小。从结果可以看出,这些特征是使用深度学习快速创建图像识别系统的可行替代方案,并且该系统可以比使用视觉特征描述符的系统更好地执行。与从零开始训练的CNN相比,DeCAF具有可比较的识别率。但是,专门针对该问题培训CNN需要更复杂和更慢的培训方案。
该结果对于计算机辅助诊断中基于未来分类的系统的设计是重要的,因为它表明深度学习的特征,即使通过在其他类型的图像上训练的CNN获得,也是有价值的。通过这项研究,我们向医学图像分析和CAD / CADx系统的转移学习迈出了一步,CNN在ImageNet上训练,可以检测医学图像中的结节。

你可能感兴趣的:(深度学习论文精读,深度学习,分类,机器学习)