主分量分析

1 自组织原则

原则1 增强性

自组织第一原则:
神经元突触权值的修正随着Hebb条件学习自增强,这使得突触可塑性有了可能。
在单个神经元中,自增强的过程受到以下约束:
对神经元突触权值的修正基于在局部区域可获得前突触和后突触信号

表示Hebb学习特征的关键机制:
(1)依赖时间机制。此机制表示对Hebb突触修改依赖于前突触和后突触信号发生的准确时间;
(2)交互机制。Hebb突触交换的发生依赖于突触每边的信号,
(3)局部机制。一个突触自然地提供了在时空连接中的信息信号交换,局部的可获得的信息通过Hebb突触产生一个与输入有关的局部突触的修正
(4)共轭或相关机制。

原则2 竞争原则##

可用资源的局限性,以一种或另一种的形式,导致单个或一群神经元的突触间的竞争,这个结果使得最强健增长的突触或神经元是以其他神经元作为代价的。
为了使一个给定的神经元趋于稳定,它的突触间必须对有限资源的竞争,以此方式,神经元中一些突触的增强被其他突触的减弱所弥补。相应地,只有最成功的突触可用于增长,那些不成功的突触就会趋于减弱,而最终消失。

原则3 协作##

在神经网络和网络的神经元级别中,对突触权值的修改趋于互相合作。

原则4 结构化信息##

在一个输入信号存在的潜在次序和结构代表了冗余的信息,其通过一个自组织系统以知识的形式获得。

2 主分量分析:扰动理论##

在统计模式识别中,一个常见的问题就是特征选择或特征选择。
特征选择是指将数据空间变换到特征空间的过程

令X表示环境的m维随机变量,假设X均值为零:
(式1) E ( x ) = 0 E(x) =0 \tag {式1} E(x)=0(1)
E E E为统计学中期望运算符。若X均值不为零,在执行分析之前先减去其均值,另 q q q表示m维***单位向量***,X在其上投影表示为:
(式2) A = X T q = q T X A = X^Tq=q^TX \tag {式2} A=XTq=qTX(2)
满足约束条件:
(式3) ∣ ∣ q ∣ ∣ = ( q T q ) 1 / 2 = 1 ||q|| = (q^Tq)^{1/2}=1 \tag {式3} q=(qTq)1/2=1(3)
投影A也是随机变量,由假设X的均值为零,推知A的均值也为零:
(式4) E ( A ) = q T E ( X ) = 0 E(A)= q^TE(X)=0 \tag {式4} E(A)=qTE(X)=0(4)
方差与其均方差相同,可写为:
(式5) δ 2 = E [ A 2 ] = E [ ( q T X ) ( X T q ] = q T E [ X X T ] q = q T R q \delta^2=E[A^2] = E[(q^TX)(X^Tq]=q^TE[XX^T]q=q^TRq \tag {式5} δ2=E[A2]=E[(qTX)(XTq]=qTE[XXT]q=qTRq(5)
R为随机向量X的自相关矩阵,表示为:
(式6) R = E ( X X T ) R = E(XX^T) \tag {式6} R=E(XXT)(6)
相关矩阵R是对称的,即
(式7) R T = R R^T=R \tag {式7} RT=R(7)
投影A的方差是\delta^2是单位向量q的函数,可以写为:
(式8) ψ ( q ) = δ 2 = q T R q \psi(q) = \delta^2=q^TRq \tag {式8} ψ(q)=δ2=qTRq(8)
ψ ( q ) \psi(q) ψ(q)定义为方差探针。

3 主分量分析的特征结构

下面讨论在欧几里得范数的约束条件下,找出单位向量q沿 ψ ( q ) \psi(q) ψ(q)所具有的极值或稳定值,用于解决依赖于输入向量的相关矩阵R的特征结构。如果q为单位向量使得方差探针 ψ ( q ) \psi(q) ψ(q)具有极值,那么对单位向量q任意小的扰动 δ q \delta q δq,将有:
ψ ( q + δ q ) = ψ ( q ) \psi(q+ \delta q) = \psi(q) ψ(q+δq)=ψ(q)
由方差探针定义为:
ψ ( q + δ q ) = ( q + δ q ) T R ( q + δ q ) = q T R q + 2 ( δ q ) T R q + ( δ q ) T R δ q \psi(q+ \delta q) = (q+ \delta q)^TR(q+ \delta q) = q^TRq + 2(\delta q)^TRq+(\delta q)^TR\delta q ψ(q+δq)=(q+δq)TR(q+δq)=qTRq+2(δq)TRq+(δq)TRδq

4 数据表示

令数据向量 x x x为随机向量 X X X的实例。用 α \alpha α表示随机变量 A A A的一个实例。
由于单位向量 q q q m m m个可能的解,数据向量x有m个可能的投影,已知:
a j = q j T x = x T q j , j = 1 , 2 , . . . . , m a_j = q_j^T x=x^Tq_j, j=1,2,....,m aj=qjTx=xTqj,j=1,2,....,m
其中 a j a_j aj是x在单位向量 q j q_j qj所表示的主方向上的投影。 a j a_j aj称作主分量,与向量x具有相同的物理量纲。
为了从投影 a j a_j aj中准确重建原始数据向量x,首先将一组投影{ a j ∣ j = 1 , 2 , . . . , m a_j |j=1,2,...,m ajj=1,2,...,m}组合成一个单一的向量,表示为:
a = [ a 1 , a 2 , a 3 . . . . a m ] T = [ x T q 1 , x T q 2 , . . . . , x T q m ] T = Q T x a = [a_1,a_2,a_3....a_m]^T = [x^T q_1,x^T q_2,....,x^Tq_m]^T = Q^Tx a=[a1,a2,a3....am]T=[xTq1,xTq2,....,xTqm]T=QTx
再利用 Q Q T = I QQ^T = I QQT=I的关系,因此数据向量可重建为:
x = Q a = ∑ j = 1 m a j q j x = Qa= \sum_{j=1} ^m a_j q_j x=Qa=j=1majqj
可被看成合成公式,单位向量 q j q_j qj表示数据空间的一组基。上式可看作一坐标变换,根据该变换空间中的一个点x变换到特征空间的点a。

5 维数约减

主分量分析的实际价值在于为维数约减提供了有效方法。具体的讲,通过丢弃

你可能感兴趣的:(神经网络与机器学习笔记)