自动驾驶(十一)---------泰勒展开式、雅克比矩阵、主成分分析

1.泰勒展开式

       你可能会奇怪,讲自动驾驶怎么说起了数学,泰勒公式是我很喜欢的一个公式,自动驾驶中很多地方用到的是数学,只有把这些都弄明白,才能更好的理解自动驾驶,这也是我的探究过程。

       泰勒公式一句话描述:就是用多项式函数去逼近光滑函数。

       泰勒公式表达形式:      

       简单的方式来理解泰勒公式:

      1.给定一个f(x),都可以唯一确定一个导函数f '(x),导函数给出了原函数的变化情况。如:f(x)=x^3,导函数为f’(x)=3x ^2

      2.一个导函数f’(x)=3x2对应原函数为f(x)=3x2+1,f(x)=3x2+2, f(x)=3x2+3….无穷多个,求导是不可逆的过程。

      3.原函数的信息=导函数的信息+初始值信息:

      4.继续这个过程:F(x)  这就是泰勒展开公式。

泰勒公式的应用:

      一:求极限
      二:求高阶导数
      三:证明不等式
      四:判断散列性
      五:计算近似值
      六:求函数的麦克劳林展开式

2.雅克比矩阵

      雅可比矩阵是一阶偏导数以一定方式排列成的矩阵。目的是表示多元函数的导数,假设F: Rn→Rm是一个从欧式n维空间转换到欧式m维空间的函数。这个函数F由m个实函数组成: y1(x1,…,xn), …, ym(x1,…,xn)。这些函数的偏导数(如果存在)可以组成一个m行n列的矩阵, 这就是所谓的雅可比矩阵:

                                                                 自动驾驶(十一)---------泰勒展开式、雅克比矩阵、主成分分析_第1张图片

                  表示为:                            

       如果p是Rn中的一点, F在p点可微分, 那么在这一点的导数由JF(p)给出(这是求该点导数最简便的方法). 在此情况下, 由F(p)描述的线性算子即接近点p的F的最优线性逼近, x逼近于p:

                                                            

      雅可比矩阵是向量关于向量的导数,上图为直线中的点斜式。

3.主成分分析

      机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。在原始高维空间中包含冗余及噪音,在实际应用例如图像识别中造成了误差,降低了准确率;通过降维,我们希望减少冗余造成的误差,提高识别精度。又或者通过降维算法来寻找数据内部的本质结构。

       PCA它的目标是通过某种线性投影,将高维的数据映射到低维的空间中表示,并期望在所投影的维度上数据的方差最大,以此使用较少的数据维度,同时保留住较多的原数据点的特性。通俗的理解,如果把所有的点都映射到一起,几乎所有的信息都丢失了,而如果映射后方差尽可能的大,那么数据点则会分散开来,从而保留更多的信息。

       假设存在一个n维向量X,w为目标子空间的一个坐标轴方向(称为映射向量),则其投影为wX,PCA要求最大方差即:

                                                                

       可以得到如下优化目标函数:       

       其中tr表示矩阵的迹,A是数据协方差矩阵。

       容易得到最优的W是由数据协方差矩阵前k个最大的特征值对应的特征向量作为列向量构成的。这些特征向量形成一组正交基并且最好地保留了数据中的信息。PCA追求的是在降维之后能够最大化保持数据的内在信息,并通过衡量在投影方向上的数据方差的大小来衡量该方向的重要性。

你可能感兴趣的:(自动驾驶)