文献阅读(45)——使用自监督学习对AMD分类

使用自监督学习对AMD分类

文献阅读(45)——使用自监督学习对AMD分类_第1张图片

文章目录

  • 使用自监督学习对AMD分类
    • 一、简介
    • 二、先验知识
    • 三、文章核心内容
    • 四、使用方法
      • 1. 非参数化实例歧视(中文翻译过来总是奇奇怪怪,其实就是NPID)
          • a 挑战
          • b 解决方案
          • c 转化!
      • 2. 数据集
      • 3. 数据预处理
    • 五、结论
    • 六、可借鉴点

一、简介

长时间考虑和接触的问题都是监督学习,都在考虑label的标注,但是实际生活中的很多问题都存在label标记很难,或是工作量太大,亦或是触及信息泄露问题。所以无监督和自监督是大家最希望的解决方法。

二、先验知识

脱色和地理萎缩对AMD的影响最严重

三、文章核心内容

使用自监督深度学习使用数据驱动的AMD特征对其严重程度进行分类并发现眼部疾病

四、使用方法


敲黑板,划重点!新知识点

1. 非参数化实例歧视(中文翻译过来总是奇奇怪怪,其实就是NPID)

**在分类问题中,我们的任务是将所有的数据(10000+图片)分为几类,NPID可以想象为将所有数据区分为这10000+(和数据集同大小)类,将类别数量扩展为实力数量。**有监督学习根据图片之间的相似性将所有的图片分为N个类别,而通过将类别数量扩展为实例数量的方式,最终可以得到一个表示实例之间明显相似性的表征

a 挑战

类别的数量和整个数据集的大小相当,将softmax层扩展为与类别相当大小是不现实的

b 解决方案

作者采用噪声对比估计(NCE)逼近整个softmax分布,之后采用近端正则化的方法稳定学习过程。 使用non-param softmax 代替原来的softmax

c 转化!

通过这种方式将判别学习转化为度量学习,其中实例之间的距离通过非参数方式直接根据表征进行计算


2. 数据集

100848张眼底照

3. 数据预处理

使用拉普拉斯滤波处理

五、结论

使用I监督也可以都达到监督学习的效果

六、可借鉴点

对于相似程度很高的数据进行分裂的过程中可以尝试将其实例化,使用NPID进行分类,或许可以取得不错的效果。我还没有进行尝试,当然这种方法针对没有label的数据集是很友好的,但是如果label标注并不复杂或者消耗时间精力不大,则还是建议使用监督学习。应用类型更推荐使用监督学习,如果是方法创新可以在无监督上面多花时间和精力

你可能感兴趣的:(文献阅读,学习,分类,人工智能)