Two-Dimensional PCA: A New Approach to Appearance-Based Face Representation and Recognition

文章目录

  • 1.前言
  • 2.TWO-DIMENSIONAL PRINCIPAL COMPONENT ANALYSIS
    • 2.1 Algorithm
    • 2.2 Feature Extraction
  • 小结
  • 参考文献

1.前言

这篇文章还是经典的人脸识别思路。区别在于,传统的人脸识别在使用PCA的时候,采用的方法往往是将图像矩阵转为矢量。本文作者认为这种方式导致每一个样本的维度大,而样本少,这样构建的协方差矩阵并不合理。所以,作者提出了一种2维的PCA,在进行PCA,主特征提取的时候无需对图像进行矢量化。

2.TWO-DIMENSIONAL PRINCIPAL COMPONENT ANALYSIS

2.1 Algorithm

Y = A X Y = AX Y=AX
Y ∈ R m , A ∈ R m × n , X ∈ R n Y \in \mathbb{R}^m,A\in \mathbb{R}^{m\times n},X\in \mathbb{R}^{n} YRm,ARm×n,XRn,这篇文章发表的比较早,2004年,表达方法有一些怪。比如大写的X,Y表示的是矩阵,且一般对应的是建模的响应变量和自变量。这里A代表图像,X代表的是投影向量,Y代表了得分。这里,为了和原来一致,其代表的意义不变,。
一般而言, A = U Σ V T A = U\Sigma V^T A=UΣVT,从 V V V里面可以得到 X X X,这里的V也可以通过构建 A T A = V Σ 2 V T A^TA=V\Sigma^2V^T ATA=VΣ2VT,即A的协方差矩阵的特征值。现在的问题是,对于一个图片集里面存在几类图片,每一类图片代表了一个人的照片,如何从每一类图片提取主要成分呢?论文提出了2DPCA方法。
S x = E ( Y − E ( Y ) ) E ( Y − E ( Y ) ) T = E ( A X − E ( A X ) ) E ( A X − E ( A X ) ) T = E ( A − E ( A ) X ) [ E ( A − E ( A ) ) X ] T S_x=E(Y - E(Y)) E(Y-E(Y) )^T=E(AX-E(AX))E(AX-E(AX))^T=E(A-E(A)X)[E(A-E(A))X]^T Sx=E(YE(Y))E(YE(Y))T=E(AXE(AX))E(AXE(AX))T=E(AE(A)X)[E(AE(A))X]T
对我来说,上式看着有点不自然,其实就是一个方差表达式,X的优化目标是使得tr(S_x)越大越好,其实写成 t r ( S x ) = E [ ( A − E ( A ) ) X ] T [ E ( A − E ( A ) ) X ] = X T E ( A − E ( A ) ) T [ E ( A − E ( A ) ) ) tr(S_x) = E[(A-E(A))X]^T[E(A-E(A))X]=X^TE(A-E(A))^T[E(A-E(A))) tr(Sx)=E[(AE(A))X]T[E(AE(A))X]=XTE(AE(A))T[E(AE(A))),这个信息表达的是图像A离开其中心 A ˉ \bar{A} Aˉ的偏离信息。将 A ˉ \bar{A} Aˉ作为背景信息, S x S_x Sx体现了偏离该背景的信息分布情况。这样做的好处是可以去掉背景信息干扰,只关注每一个样本相对背景信息的变异部分,和中心化有些类似,但是感觉在物理意义有些差异。
G t = 1 M ∑ j = 1 M ( A j − A ˉ ) A ˉ = 1 M ∑ j = 1 M ( A j ) t r ( S x ) = J ( X ) = X T G t X G_t = \frac{1}{M}\sum_{j=1}^M(A_j-\bar{A})\\ \bar{A}=\frac{1}{M}\sum_{j=1}^M(A_j)\\ tr(S_x)=J(X)= X^T G_tX Gt=M1j=1M(AjAˉ)Aˉ=M1j=1M(Aj)tr(Sx)=J(X)=XTGtX
由此 G t G_t Gt我们已经可以分解出主要成分的投影方向 X X X

2.2 Feature Extraction

假设去d个特征向量,提取的得分 Y k Y_k Yk,则有
Y k = A X k ; k = 1 ; 2 ; …   ; d Y_k = AX_k ;k =1;2;\dots;d Yk=AXk;k=1;2;;d
其实,到了这里剩余的部分就没什么新意了。PCA的主要目的是降维,用少量的特征代替原来的高维且可能存在共线的信息。作为图像分类,用新的特征信息代替原来信息的去计算欧式距离。用近邻法选择测试样本所属的类别.
文中也指出了,降维重构的方法,也很直观,跟SVD分解重构的方法类似,无需赘述

小结

2D-PCA主要提出了一种针对一个样本集的图像做SVD分解的方法,得到一组用于提取信息的特征向量。由于不需要再做图像的矢量化,所以,本文认为在构造的相关矩阵上,要优于传统方法。其他后续的做法与传统做法并没有什么不一样。从效果看看,跟目前的主流算法比较并没什么亮点,毕竟是04年的文章了,不能苛求。

参考文献

  1. Two-Dimensional PCA: A New Approach to Appearance-Based Face Representation and Recognition

你可能感兴趣的:(数据科学,2DPCA)