Tensor Low-Rank Discriminant Embedding for Hyperspectral Image Dimensionality Reduction 笔记

明天下午见导师开组会,自己从上周到现在做的工作只是把师姐的模型用到高光谱分类上,看起来结果还不错。并且改进了模型,在高光谱上确实有了提升,但是在师姐应用的Yale B数据上,聚类效果有了提升,但是分类效果就.....emmmm....
花了一晚上才找了这篇文章看,希望能把师姐模型也改成张量模型,并且应用下,让我发片TIP吧。

摘要

低秩表示和投影学习被整合成LRE模型得到了鲁棒的低维特征。
缺点:

  • 向量模型不能更好的表示高阶形式(惯有套路了都是...哎,最近不知道什么才叫做创新了,被那个北理老师的一番话打击了)。
  • LRE未考虑标签信息
    提出 TLRDE。
    优点:
  • 张量表示保留了高光谱内在的几何结构
  • 低秩表示揭示了数据点之间的潜在关系
  • 用标签信息增强了特征的判别能力
  • 不受小样本影响

引言

线性方法(PCA,ICA,LDA)--->非线性方法(LE,LLE,LPP,NPE)--->GE(SGE,SGDA,SLGDA,GDA-SS)--->张量方法(MPCA,STM,TLPP,MTLPP)
对噪声鲁棒,低秩特性被广泛用于图像和视频处理。RPCA--->LRR--->IPRCA(克服解决新样本的缺点)--->LRE
LRE缺点:

  • 向量方法的固有缺点,不能保留高光谱数据的空间信息
  • LRE是无监督,低维特征判别力弱
    (这两句话和摘要里面表达的意思一样......引言是摘要的加长版,我真的不能理解导师的这句话,感觉没加长啊,就是在前面回顾了发展历史......)
    文章主要贡献:
  • TLRDE把高光谱的内在几何机构,低秩,标签信息整合在一起处理
  • 迭代求解,收敛性分析,计算复杂度也被给出
  • 实验证明了有效性,特别是小样本问题也特别有效。

相关工作

张量代数

0阶张量是标量,一阶张量是向量,二阶张量是矩阵,三阶张量是立方体,四阶往后我就想象不出来了。

k-mode unfloding (k模展开,不知道翻译成这样对不对)

简单讲就是把张量沿着 k轴展开成矩阵。给定 沿着轴展开成(敲这个,让我想到了用overleaf写论文的时候.......麻烦....)

下图来至于

张量展开.jpg

LRE

LRE的目标函数:

待续......

你可能感兴趣的:(Tensor Low-Rank Discriminant Embedding for Hyperspectral Image Dimensionality Reduction 笔记)