本篇博文主要参考来源于太原理工大学硕士研究生秦嘉玮的硕士学位论文《MRI 结构特征选择方法及 AD 早期诊断的应用研究》,也是博主的AD第一篇学习论文。在本文中主要介绍AD诊断的背景及其特征选择方法。
写了这篇论文笔记之后我再也不会写学位论文笔记了,简直是太长了,要写就写他对应的学术论文的笔记了,这样创新点比较容易get,只用写结构和它的创新点就行了!不然还得分析一大堆!
阿尔茨海默病(Alzheimer’s Disease,AD),又称老年痴呆症,这种疾病会影响患者的记忆力、理解力、认知能力等等,给家庭和社会带来很大负担,而且病因和发病机制还不明确,目前没有有效的治疗方法。轻度认知障碍(Mild Cognitive Impairment,MCI)是 AD 的早期过程。有研究发现对 MCI 患者或者早期 AD 患者进行药物干预,可以改善症状、缓解病情。因此,对 MCI、AD 患者的早期诊断显得尤为重要。
核磁共振成像是常用的一种 MCI、AD 诊断技术,但受到技术限制,MCI、AD 的MRI 图像目前还主要依靠医生经验人工判断,尚未实现自动诊断。如何实现 MCI、AD的自动诊断是计算机、人工智能、医学影像等相关领域的研究热点之一。通过对 MRI图像的深入研究,挖掘其包含的有用信息,可以得到灰质体积、白质容积、脑脊液容积等大量的脑结构信息。那么,如何将这些特征运用到 MCI、AD 的分类研究中就成了提高其诊断准确率的关键。
由于脑部结构比较复杂,对于需要的特征进行选择这是研究的重点,也是难点。特征有“无关特征”(与当前学习任务无关)和“冗余特征”(所包含的信息可以从其他特征推演出来)!对于已知类型的样本进行特征选择无外乎以下几种:基于错误率进行选择,根据分类器的错误率从原始特征中选择数目固定的特征子集,错误率最小的特征即为最优特征子集;基于维度进行特征选择,即规定一个分类器的错误率,从原始特征中选择维度最小的特征子集;在二者之间做一个折中,考虑错误率和特征维度两方面因素。
近年来,特征选择算法的研究飞速发展,其关键在于研究特征选择与特征提取相融合的特征选择算法、筛选出分类效果最优的特征子集以及研究如何将 Filter 过滤式模型和 Wrapper 封装式模型(下一节介绍这2个模型)更好融合这三方面。
神经影像学检查已经广泛地应用于 MCI、AD 的辅助诊断,其中主要包含结构影像学检查和功能影像学检查。MRI 图像通过磁共振成像技术生成,扫描时间较短,而且图像包含了人体的很多信息,对这些信息进行探索和研究是准确诊断 MCI、AD 患者的关键。
人脑结构是错综复杂的,正常衰老也会伴随着脑结构的萎缩,MCI、AD 患者也存在脑区萎缩的现象,这就给临床诊断带来了许多困难:到底哪些脑区的萎缩是患病造成的,哪些脑区的萎缩只是正常衰老。正确判断脑结构的变化能有效地诊断出 MCI、AD患者,但是现在对于 MCI、AD 的诊断主要还是依靠阅片医生的主观判断,这样的方法耗时耗力,而且还存在一定的主观性,会影响疾病的诊断准确性。如何自动准确的诊断MCI、AD 成为了现阶段研究的热点,该论文提出 HS-EJ (启发式搜索特征选择模型)特征选择模型,对脑图像中大量的信息进行筛选,提取有用的信息,用于 MCI、AD 的自动诊断。
该论文采集了NC、MCI、AD的MRI数据,提取所有的被试的灰质,白质,和脑脊液体积进行特征选择并分类,评估特征选择方法的优劣。
该论文的创新就在于特征选择模型的融合这一块,在这节主要介绍几个基础理论,这也是博主的小小理解,已经学习过的也可以看一下,不足之处请多多指教!
Dash 等人分析了大量特征选择方法之后,提出了一种如下图 所示的通用的特征选择过程,包括子集生成、子集评价、停止条件以及结果验证四部分!
特征选择的一般过程:首先是对原始的特征进行子集选择,将原始特征分为多个子集,为下一步的子集评价做准备;然后进入子集评价环节,将多个特征子集依次进行子集评价,然后输出结果,根据停止条件选择出最优特征子集;最后将这组特征进行实际检测。
Filter 过滤式模型
Filter 过滤式模型的评估算法与后续的学习算法分开的,也就是说是直接由数据求的,不依赖学习算法。这种模型只依赖数据本身,运用特征的相关程度进行特征选择,特征相关度较大的特征认为有较好分类效果的特征。
该模型的通用性强,可用于不同的特征集,而且算法简单,易于操作,适用于数据量较大的特征集。但是其忽略了后续的学习算法,选出的特征可能对于学习算法不是最优的特征集,因此得到的分类效果可能不是最优的。
Wrapper 封装式模型
Wrapper 封装式模型的评估算法是考虑后续的学习算法,以学习算法的性能作为评价标准,一般为分类准确率。通过后续学习算法选择出的最优特征集,不仅得到特征子集,而且考虑了学习算法对特征的影响
这样的模型得到的最优特征子集能显著提高学习算法的性能,但是每一次子集评价时都需要
学习算法的参与,时间复杂度较高。
评价标准
Filter 过滤式特征选择模型一般基于以下四种评价标准进行特征选择:相关性、距离、信息增益以及一致性度量标准,Wrapper 封装特征选择模型以学习算法的性能作为评价标准,因此多运用分类准确率作为度量指标。直接运用分类准确率作为特征选择的评价标准有利于提升后续学习算法的性能,准确性极高。
停止条件与结果验证
特征选择过程是一个循环过程,如果没有停止的话,这个循环将无穷无尽的循环下去,因此需要一个停止条件。当循环满足这一条件时,特征子集搜索过程停止,输出最优特征子集。一般停止条件的设置遵循以下几条规定:达到一定的分类准确率的特征集;特征数增加或者减少时不会改变原有的结果时得到的特征集。结果验证就是验证最优特征子集的有效性,具体方法一般是运用分类算法验证其是否能提高分类准确率。因此,如果能保留两种模型的优点,去除其缺点,可能提高特征选择模型的性能。
通过显著分析法,可以得到两组之间引起差异的特征,从而简化特征!
线性回归用来预测,逻辑回归用来分类。
线性回归是拟合函数,逻辑回归是预测函数
线性回归的参数计算方法是最小二乘法,逻辑回归的参数计算方法是梯度下降
Logistic 回归分析的系数是由最大似然估计法得到的,这样就保证了在某一特定特异度下可获得最大灵敏度,或在某一特定灵敏度下可获得最大特异度,从而能得到最大的分类准确率。通过这样的方法进行特征选择可有效地降低特征间的冗余,对特征间的交互关系深入分析,从而起到去伪存真的效果。Logistic 回归被广泛地应用于医学领域。
基本原理是结合Filter过滤式模型和Wrapper封装式模型进行特征选择。根据经验判断可知,显著性水平越高的特征,分类效果就越好;反之,显著性水平越低的特征,分类效果就越差。通过这样的方法过滤掉分类效果较差的
特征,然后运用SVM封装式模型进行进一步的特征选择,使用SVM分类器的分类准确率作为评价指标,得到最优特征子集。
根据经验判断可知,logistic 回归分析系数越高的特征,分类效果就越好;反之,logistic 回归分析系数越低的特征,分类效果就越差。将 logistic 回归分析过滤模型代替显著性分析过滤模型,过滤掉分类效果较差的特征,然后运用 SVM 封装式模型,使用SVM 分类器的分类准确率作为评价指标,得到最优特征子集。