非线性优化

非线性优化

  • 1. 线性系统和非线性系统
  • 2. 状态估计问题
    • 2.1 最大后验与最大似然
    • 2.2 最小二乘的引出
    • 2.3 例子:批量状态估计
  • 3. 非线性最小二乘
    • 3.1 一阶和二阶梯度法
    • 3.2 高斯牛顿法
    • 3.3 列文伯格---马夸尔特方法
    • 3.4 小结

Reference:

  1. 高翔,张涛 《视觉SLAM十四讲》

1. 线性系统和非线性系统

如果从系统状态空间表达式来观察,线性系统和非线性系统最明显的区别方法就是线性系统遵从叠加原理,而非线性系统不然
所谓叠加原理举个例子就是:
f ( x ) = 2 x , f ( y ) = 2 y , f ( x + y ) = 2 ( x + y ) = 2 x + 2 y = f ( x ) + f ( y ) f(x)=2x,f(y)=2y,f(x+y)=2(x+y)=2x+2y=f(x)+f(y) f(x)=2x,f(y)=2y,f(x+y)=2(x+y)=2x+2y=f(x)+f(y)

举个反例:
f ( x ) = 2 x 2 , f ( y ) = 2 y 2 , f ( x ) + f ( y ) = 2 ( x 2 + y 2 ) f(x)=2x^2,f(y)=2y^2,f(x)+f(y)=2(x^2+y^2) f(x)=2x2,f(y)=2y2,f(x)+f(y)=2(x2+y2),但 f ( x + y ) = 2 ( x + y ) 2 f(x+y)=2(x+y)^2 f(x+y)=2(x+y)2,两个显然不等。

换句话说,线性系统的表达式中只有状态变量的一次项,高次、三角函数以及常数项都没有,只要有任意一个非线性环节就是非线性系统。

2. 状态估计问题

2.1 最大后验与最大似然

经典的 SLAM 模型通常由一个运动方程一个观测方程构成,如下所示:
{ x k = f ( x k − 1 , u k ) + w k z k , j = h ( y j , x k ) + v k , j \left\{\begin{array}{l} \boldsymbol{x}_k=f\left(\boldsymbol{x}_{k-1}, \boldsymbol{u}_k\right)+\boldsymbol{w}_k \\ \boldsymbol{z}_{k, j}=h\left(\boldsymbol{y}_j, \boldsymbol{x}_k\right)+\boldsymbol{v}_{k, j} \end{array}\right. {xk=f(xk1,uk)+wkzk,j=h(yj,xk)+vk,j

这里的 x k x_k xk相机的位姿,位姿变量可以由 T k ∈ SE(3) T_k\in \text{SE(3)} TkSE(3) 表达。运动方程与输入的具体形式有关,但在视觉 SLAM 中没有特殊性(和普通的机器人、车辆情况一样),先暂且不谈。假设使用针孔模型,那么这里的观测方程由针孔相机模型给定。假设 x k x_k xk 处对路标 y j y_j yj 进行了一次观测 j j j 在这里是路标点的序号),对应到图像上的像素位置 z k , j z_{k,j} zk,j,那么,观测方程可以表示成(说白了,第一个公式为相机的位姿变换公式,第二个为拍摄到的图像像素位置变化公式,很好理解):
s z k , j = K ( R k y j + t k ) . sz_{k,j}=K(R_ky_j+t_k). szk,j=K(Rkyj+tk).

其中 K K K 为相机内参, s s s 为像素点的距离(深度),也是 ( R k y j + t k ) (R_ky_j+t_k) (Rkyj+tk) 的第三个分量。如果使用变换矩阵 T k T_k Tk 描述位姿。那么路标点 y i y_i yi 必须以齐次坐标来描述,计算完成后要转换为费其次坐标。

现在,考虑数据受噪声影响后会发生什么改变。在运动和观测方程中,我们通常假设两个噪声项 w k , v k , j w_k, v_{k,j} wk,vk,j 满足零均值的高斯分布,像这样:
w k ∼ N ( 0 , R k ) , v k , j ∼ N ( 0 , Q k , j ) \boldsymbol{w}_k \sim \mathcal{N}\left(0, \boldsymbol{R}_k\right), \boldsymbol{v}_{k,j} \sim \mathcal{N}\left(0, \boldsymbol{Q}_{k, j}\right) wkN(0,Rk),vk,jN(0,Qk,j)

其中 N \mathcal{N} N 表示高斯分布, 0 0 0 表示零均值, R k \boldsymbol{R}_k Rk Q k , j \boldsymbol{Q}_{k,j} Qk,j 为协方差。在这些噪声的影响下,我们希望通过带噪声的数据 z z z u u u 推断位姿 x x x 和地图 y y y(以及它们的概率分布),这构成了一个状态估计问题。

处理这个状态估计问题的方法大致分为两种。由于在 SLAM 过程中,这些数据是随时间逐渐到来的,所以,我们应该持有一个当前时刻的估计状态,然后用新的数据来更新它。这种方式称为增量/渐进(incremental)的方法,或者叫滤波器。在历史很长一段时间内,研究者们使用滤波器,尤其是扩展卡尔曼滤波器及其衍生方法求解它。另一种方式,则是把数据“攒”起来一并处理,这种方式称为批量(batch)的方法。例如,我们可以把 0 0 0 k k k 时刻所有的输入和观测数据都放在一起,那么,在这样的输入和观测下,如何估计整个 0 0 0 k k k 时刻的轨迹与地图呢?

这两种不同的处理方式引出了很多不同的估计手段。大体来说,增量方法只关心当前时刻的估计状态 x k x_k xk,而对之前的状态则不多考虑;相对地,批量方法可以在更大的范围达到最优化,被认为优于传统的滤波器,而成为当前视觉 SLAM 的主流方法,极端情况下,我们可以让机器人或无人机收集所有时刻的数据,再带回计算中心统一处理,这也正是 SfM(Structure from Motion) 的主流做法。当然,这种极端情况显然是不实时的,不符合 SLAM 的运动场景。所以在 SLAM 中,实用的方法通常是一些折衷的手段。例如,我们固定一些历史轨迹,仅对当前时刻附近的一些轨迹进行优化,如滑动窗口估计法。

理论上,批量方法更容易介绍。同时,理解了批量方法也更容易理解增量的方法。所以,本节重点介绍以非线性优化为主的批量优化方法。由于考虑的是批量方法,考虑从 1 1 1 N N N 的所有时刻,并假设有 M M M 个路标点。定义所有时刻的机器人位姿和路标点坐标为:
x = { x 1 , . . . , x N } , y = { y 1 , . . . , y N } x=\{x_1,...,x_N\}, y=\{y_1,...,y_N\} x={x1,...,xN},y={y1,...,yN}

同样的,用不带下标的 u u u 表示所有时刻的输入, z z z 表示所有时刻的观测数据。那么我们说,对机器人状态的估计,从概率学的观点来看,就是已知 输入数据 u u u观测数据 z z z 的条件下,求状态 x , y x,y x,y 的条件概率分布(这种写法比较重要):
P ( x , y ∣ z , u ) P(\boldsymbol{x,y} \mid \boldsymbol{z}, \boldsymbol{u}) P(x,yz,u)

特别地,当我们不知道控制输入,只有一张张的图像时,即只考虑观测方程带来的数据时,相当于估计 P ( x , y ∣ z ) P(x,y|z) P(x,yz) 的条件概率分布,此问题也称为 SfM,即如何从许多图像中重建三维空间结构。

为了估计状态变量的条件分布,利用贝叶斯法则,有:
P ( x , y ∣ z , u ) = P ( x , y , z , u ) P ( z , u ) = P ( z , u ∣ x , y ) P ( x , y ) P ( z , u ) ∝ P ( z , u ∣ x , y ) P ( x , y ) . P(\boldsymbol{x,y} \mid \boldsymbol{z,u})=\frac{P(\boldsymbol{x,y,z,u})}{P(\boldsymbol{z,u})}=\frac{P(\boldsymbol{z,u} \mid \boldsymbol{x,y}) P(\boldsymbol{x,y})}{P(\boldsymbol{z,u})} \propto P(\boldsymbol{z,u} \mid \boldsymbol{x,y}) P(\boldsymbol{x,y}). P(x,yz,u)=P(z,u)P(x,y,z,u)=P(z,u)P(z,ux,y)P(x,y)P(z,ux,y)P(x,y).

贝叶斯法则左侧称为后验概率,右侧的 P ( z , u ∣ x , y ) P(\boldsymbol{z,u} \mid \boldsymbol{x,y}) P(z,ux,y) 称为似然(Likehood),另一部分 P ( x , y ) P(x,y) P(x,y) 称为先验(Prior)。直接求后验分布是困难的,但是求一个状态最优估计,使得在该状态下后验概率最大化则是可行的:
( x , y ) ∗ M A P = arg ⁡ max ⁡ P ( x , y ∣ z , u ) = arg ⁡ max ⁡ P ( z , u ∣ x , y ) P ( x , y ) . {(\boldsymbol{x},\boldsymbol{y})}^*{ }_{M A P}=\arg \max P(\boldsymbol{x},\boldsymbol{y} \mid \boldsymbol{z},\boldsymbol{u})=\arg \max P(\boldsymbol{z},\boldsymbol{u} \mid \boldsymbol{x},\boldsymbol{y}) P(\boldsymbol{x},\boldsymbol{y}). (x,y)MAP=argmaxP(x,yz,u)=argmaxP(z,ux,y)P(x,y).

请注意贝叶斯法则的分母部分 P ( z , u ) P(\boldsymbol{z},\boldsymbol{u}) P(z,u) 与待估计的状态 x x x, y y y 无关,因为可以忽略。贝叶斯法则告诉我们,求解最大后验概率等价于最大化似然和先验的乘积当然,我们也可以说,对不起,我不知道机器人位姿或路标大概在什么地方,此时就没有了先验。那么,可以求解最大似然估计(Maximize Likelihood Estimation, MLE):
( x , y ) ∗ M L E = arg ⁡ max ⁡ P ( z , u ∣ x , y ) . (\boldsymbol{x},\boldsymbol{y})^*{ }_{M L E}=\arg \max P(\boldsymbol{z},\boldsymbol{u} \mid \boldsymbol{x}, \boldsymbol{y}) . (x,y)MLE=argmaxP(z,ux,y).

直观地讲,似然是指“在现在的位姿下,可能产生怎样的观测数据”。由于我们知道观测数据,所以最大似然估计可以理解成:“在什么样的状态下,可能产生现在观测到的数据( z , u \boldsymbol{z},\boldsymbol{u} z,u)”。这就是最大似然估计的直观意义。

2.2 最小二乘的引出

那么,如何求最大似然估计呢?我们说,在高斯分布的假设下,最大似然能够有较简单的形式。回顾观测模型,对于某一次观测:
z k , j = h ( y j , x k ) + v k , j \boldsymbol{z}_{k, j}=h\left(\boldsymbol{y}_j, \boldsymbol{x}_k\right)+\boldsymbol{v}_{k, j} zk,j=h(yj,xk)+vk,j

由于我们假设了噪声项 v k ∼ N ( 0 , Q k , j ) \boldsymbol{v}_k \sim \cal{N}\left(0, \boldsymbol{Q}_{k, j}\right) vkN(0,Qk,j),所以观测数据的条件概率为(即概率中心点为 h ( y j , x k ) h\left(\boldsymbol{y}_j, \boldsymbol{x}_k\right) h(yj,xk)):
P ( z j , k ∣ x k , y j ) = N ( h ( y j , x k ) , Q k , j ) . P\left(\boldsymbol{z}_{j, k} \mid \boldsymbol{x}_k, \boldsymbol{y}_j\right)=\cal{N}\left(h\left(\boldsymbol{y}_j, \boldsymbol{x}_k\right), \boldsymbol{Q}_{k, j}\right) . P(zj,kxk,yj)=N(h(yj,xk),Qk,j).

它依然是一个高斯分布。考虑单次观测的最大似然估计,可以使用最小化负对数来求一个高斯分布的最大似然。

我们知道高斯分布负对数下有较好的数学形式。考虑任意高维高斯分布 x ∼ N ( μ , Σ ) \boldsymbol{x} \sim N(\boldsymbol{\mu}, \boldsymbol{\Sigma}) xN(μ,Σ),它的概率密度函数展开形式为(注意这里说的是任意的高斯分布):
P ( x ) = 1 ( 2 π ) N det ⁡ ( Σ ) exp ⁡ ( − 1 2 ( x − μ ) T Σ − 1 ( x − μ ) ) . P(\boldsymbol{x})=\frac{1}{\sqrt{(2 \pi)^N \operatorname{det}(\boldsymbol{\Sigma})}} \exp \left(-\frac{1}{2}(\boldsymbol{x}-\boldsymbol{\mu})^T \boldsymbol{\Sigma}^{-1}(\boldsymbol{x}-\boldsymbol{\mu})\right) . P(x)=(2π)Ndet(Σ) 1exp(21(xμ)TΣ1(xμ)).

对其取负对数,则变为:
− ln ⁡ ( P ( x ) ) = 1 2 ln ⁡ ( ( 2 π ) N det ⁡ ( Σ ) ) + 1 2 ( x − μ ) T Σ − 1 ( x − μ ) . -\ln (P(\boldsymbol{x}))=\frac{1}{2} \ln \left((2 \pi)^N \operatorname{det}(\boldsymbol{\Sigma})\right)+\frac{1}{2}(\boldsymbol{x}-\boldsymbol{\mu})^T \boldsymbol{\Sigma}^{-1}(\boldsymbol{x}-\boldsymbol{\mu}) . ln(P(x))=21ln((2π)Ndet(Σ))+21(xμ)TΣ1(xμ).

因为对数函数是单调递增的,所以对原函数求最大化相当于对负对数求最小化。在最小化上式的 x \boldsymbol{x} x 时,第一项与 x \boldsymbol{x} x 无关,可以略去。于是,只要最小化右侧的二次型项,就得到了对状态的最大似然估计。代入 SLAM 的观测模型,相当于在求(跟本小节末尾公式的观测模型是一样的):
( x k , y j ) ∗ = arg ⁡ max ⁡ N ( h ( y j , x k ) , Q k , j ) = arg ⁡ min ⁡ ( ( z k , j − h ( x k , y j ) ) T Q k , j − 1 ( z k , j − h ( x k , y j ) ) ) . (\boldsymbol{x_k},\boldsymbol{y_j})^* =\arg \max \cal{N}\left(h\left(\boldsymbol{y}_j, \boldsymbol{x}_k\right), \boldsymbol{Q}_{k, j}\right) =\arg \min \left(\left(\boldsymbol{z}_{k, j}-h\left(\boldsymbol{x}_k, \boldsymbol{y}_j\right)\right)^T \boldsymbol{Q}_{k, j}^{-1}\left(\boldsymbol{z}_{k, j}-h\left(\boldsymbol{x}_k, \boldsymbol{y}_j\right)\right)\right) . (xk,yj)=argmaxN(h(yj,xk),Qk,j)=argmin((zk,jh(xk,yj))TQk,j1(zk,jh(xk,yj))).

我们发现,该式等价于最小化噪声项(即误差)的一个二次型。这个二次型称为马哈拉诺比斯距离(Mahalanobis distance),又叫马氏距离。它可以看成由 Q k , j − 1 Q_{k,j}^{-1} Qk,j1 加权之后的欧氏距离(二范数),这里 Q k , j − 1 Q_{k,j}^{-1} Qk,j1 也叫作信息矩阵,即高斯分布协方差矩阵之逆

现在我们考虑批量时刻的数据。通常假设各个时刻的输入和观测是相互独立的,这意味着各个输入之间是独立的,各个观测之间是独立的,并且输入和观测也是独立的。于是我们可以对联合分布进行因式分解:
P ( z , u ∣ x , y ) = ∏ k P ( u k ∣ x k − 1 , x k ) ∏ k , j P ( z k , j ∣ x k , y j ) P(\boldsymbol{z},\boldsymbol{u}|\boldsymbol{x},\boldsymbol{y}) = \prod \limits_{k}P(\boldsymbol{u_k}|\boldsymbol{x_{k-1}},\boldsymbol{x_k})\prod \limits_{k, j}P(\boldsymbol{z_{k,j}}|\boldsymbol{x_{k}},\boldsymbol{y_j}) P(z,ux,y)=kP(ukxk1,xk)k,jP(zk,jxk,yj)

这说明我们可以独立的处理各个时刻的运动和观测定义各次输入和观测数据与模型之间的误差
e u , k = x k − f ( x k − 1 , u k ) e z , j , k = z k , j − h ( x k , y j ) , \begin{array}{l} \boldsymbol{e}_{\boldsymbol{u}, k}=\boldsymbol{x}_k-f\left(\boldsymbol{x}_{k-1}, \boldsymbol{u}_k\right) \\ \boldsymbol{e}_{\boldsymbol{z}, j, k}=\boldsymbol{z}_{k, j}-h\left(\boldsymbol{x}_k, \boldsymbol{y}_j\right), \end{array} eu,k=xkf(xk1,uk)ez,j,k=zk,jh(xk,yj),

那么,最小化所有时刻估计值与真实读数之间的马氏距离,等价于求最大似然估计。负对数允许我们把乘积变成求和(分别为运动方程观测模型):
min ⁡ J ( x , y ) = ∑ k e u , k T R k − 1 e u , k + ∑ k ∑ j e z , k , j T Q k , j − 1 e z , k , j . \min J(\boldsymbol{x},\boldsymbol{y})=\sum_k \boldsymbol{e}_{\boldsymbol{u}, k}^T \boldsymbol{R}_k^{-1} \boldsymbol{e}_{\boldsymbol{u}, k}+\sum_k \sum_j \boldsymbol{e}_{z, k, j}^T \boldsymbol{Q}_{k, j}^{-1} \boldsymbol{e}_{z, k, j}. minJ(x,y)=keu,kTRk1eu,k+kjez,k,jTQk,j1ez,k,j.

这样就得到了一个最小二乘问题(Least Square Problem),它的解等价于状态的最大似然估计。直观上看,由于噪声的存在,当我们把估计的轨迹于地图代入 SLAM 的运动、观测方程中时,它们并不会完美地成立。这时怎么办呢?我们对状态的估计值进行微调,使得整体的误差下降一些。当然,这个下降也有限度,它一般会达到一个极小值。这就是一个典型的非线性优化的过程

仔细观察上式,我们发现 SLAM 中的最小二乘问题具有一些特定的结构:

  • 首先,整个问题的目标函数由许多个误差的(加权的)二次型组成。虽然总体的状态变量维数很高,但每个误差项都是简单的,仅与一两个状态变量有关。例如,运动误差只与 x k − 1 , x k x_{k-1},x_{k} xk1,xk 有关,观测误差只与 x k , y j x_k,y_j xk,yj 有关。这种关系会让整个问题由一种稀疏的形式。
  • 其次,如果使用李代数表示增量,则该问题是无约束的最小二乘问题。但如果用旋转矩阵/变换矩阵描述位姿,则会引入旋转矩阵自身的约束,即需在问题中加入 s.t. R T R = I R^TR=I RTR=I d e t ( R ) = 1 det(R)=1 det(R)=1 这样令人头大的条件。额外的约束会使优化变得更困难。这体现了李代数的优势。
  • 最后,我们使用了二次型度量误差。误差的分布将影响此项在整个问题中的权重。例如,某次的观测非常准确,那么协方差矩阵就会“小”,而信息矩阵就会“大”(说白了就是协方差矩阵的逆变大了),所以这个误差项会在整个问题中占有较高的权重。

现在,我们介绍如何使用这个最小二乘问题,这需要一些非线性优化的基本知识。特别地,我们要针对这样一个通用的无约束非线性最小二乘问题,探讨它是如何求解的。

2.3 例子:批量状态估计

笔者发现在这里举一个简单的例子会更好一些。考虑一个非常简单的离散时间系统:
x k = x k − 1 + u k + w k , w k ∼ N ( 0 , Q k ) z k = x k + n k , n k ∼ N ( 0 , R k ) \begin{array}{l} \boldsymbol{x}_k = \boldsymbol{x}_{k-1} + \boldsymbol{u}_k + \boldsymbol{w}_k,& \boldsymbol{w}_k\sim \cal{N}(0,Q_k) \\ \boldsymbol{z}_k = \boldsymbol{x}_{k} + \boldsymbol{n}_k, &\boldsymbol{n}_k\sim \cal{N}(0,R_k) \end{array} xk=xk1+uk+wk,zk=xk+nk,wkN(0,Qk)nkN(0,Rk)

这可以表达一辆沿 x x x 轴前进或后退的汽车。第一个公式为运动方程, u k \boldsymbol{u}_k uk 为输入, w k \boldsymbol{w}_k wk 为噪声;第二个公式为观测方程, z k \boldsymbol{z}_k zk 为对汽车位置的测量。取时间 k = 1 , . . . , 3 k=1,...,3 k=1,...,3,现希望根据已有的 x , z \boldsymbol{x},\boldsymbol{z} x,z 进行状态估计。设初始状态 x 0 \boldsymbol{x}_0 x0 已知。下面来推导批量状态的最大似然估计。

首先,令批量状态变量为 x = [ x 0 , x 1 , x 2 , x 3 ] T \boldsymbol{x}=[\boldsymbol{x_0},\boldsymbol{x_1}, \boldsymbol{x_2},\boldsymbol{x_3}]^T x=[x0,x1,x2,x3]T,令批量观测为 z = [ z 1 , z 2 , z 3 ] T \boldsymbol{z}=[\boldsymbol{z_1}, \boldsymbol{z_2},\boldsymbol{z_3}]^T z=[z1,z2,z3]T,按同样方式定义 u = [ u 1 , u 2 , u 3 ] T \boldsymbol{u}=[\boldsymbol{u_1}, \boldsymbol{u_2},\boldsymbol{u_3}]^T u=[u1,u2,u3]T。按照先前的推导,我们知道最大似然估计为:
x m a p ∗ = arg ⁡ max ⁡ P ( x ∣ u , z ) = arg ⁡ max ⁡ P ( u , z ∣ x ) = ∏ k = 1 3 P ( u k ∣ x k − 1 , x k ) ∏ k = 1 3 P ( z k ∣ x k ) \boldsymbol{x}_{map}^* =\arg\max P(\boldsymbol{x}|\boldsymbol{u},\boldsymbol{z})=\arg\max P(\boldsymbol{u},\boldsymbol{z}|\boldsymbol{x}) =\prod^3_{k=1}P(\boldsymbol{u}_k|\boldsymbol{x}_{k-1},\boldsymbol{x}_k)\prod^3_{k=1}P(\boldsymbol{z}_k|\boldsymbol{x}_k) xmap=argmaxP(xu,z)=argmaxP(u,zx)=k=13P(ukxk1,xk)k=13P(zkxk)

对于具体的每一项,比如运动方程,我们知道(已知 x k − 1 \boldsymbol{x}_{k-1} xk1 x k \boldsymbol{x}_{k} xk,求 u k \boldsymbol{u}_k uk的概率, u k \boldsymbol{u}_k uk中心点为 x k − x k − 1 \boldsymbol{x}_k-\boldsymbol{x}_{k-1} xkxk1。要是没有噪声的话, u k \boldsymbol{u}_k uk就是这样求出来的):
P ( u k ∣ x k − 1 , x k ) = N ( x k − x k − 1 , Q k ) , P(\boldsymbol{u}_k|\boldsymbol{x}_{k-1},\boldsymbol{x}_k) = \cal{N}(\boldsymbol{x}_k-\boldsymbol{x}_{k-1},Q_k), P(ukxk1,xk)=N(xkxk1,Qk),

观测方程也是类似的:
P ( z k ∣ x k ) = N ( x k , R k ) . P(\boldsymbol{z}_k|\boldsymbol{x}_k) = \cal{N}(\boldsymbol{x}_k,R_k). P(zkxk)=N(xk,Rk).

根据这些方法,我们就能够实际的解决上面的批量状态估计问题。根据之前的叙述,可以构建误差变量:
e u , k = x k − x k − 1 − u k , e z , k = z k − x k \boldsymbol{e}_{\boldsymbol{u},k} = \boldsymbol{x}_k - \boldsymbol{x}_{k-1}-\boldsymbol{u}_k, \boldsymbol{e}_{\boldsymbol{z},k}=\boldsymbol{z}_k-\boldsymbol{x}_k eu,k=xkxk1uk,ez,k=zkxk

于是最小二乘的目标函数为:
min ⁡ ∑ k = 1 3 e u , k T Q k − 1 e u , k + ∑ k = 1 3 e z , k T R k − 1 e z , k \min\sum^3_{k=1}\boldsymbol{e}_{\boldsymbol{u},k}^TQ^{-1}_k\boldsymbol{e}_{\boldsymbol{u},k} + \sum^3_{k=1}\boldsymbol{e}_{\boldsymbol{z},k}^TR^{-1}_k\boldsymbol{e}_{\boldsymbol{z},k} mink=13eu,kTQk1eu,k+k=13ez,kTRk1ez,k

此外,这个系统是线性系统,我们可以很容易地将它写成向量形式。定义向量 y = [ u , z ] T \boldsymbol{y}=[\boldsymbol{u},\boldsymbol{z}]^T y=[u,z]T,那么可以写出矩阵 H \boldsymbol{H} H,使得:
y − H x = e ∼ N ( 0 , Σ ) y-Hx=e\sim \cal{N}(0,\Sigma) yHx=eN(0,Σ)

那么:
H = [ 1 − 1 0 0 0 1 − 1 0 0 0 1 − 1 0 1 0 0 0 0 1 0 0 0 0 1 ] , \boldsymbol{H}=\left[\begin{array}{cccc} 1 & -1 & 0 & 0 \\ 0 & 1 & -1 & 0 \\ 0 & 0 & 1 & -1 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{array}\right], H= 100000110100011010001001 ,

Σ = diag ⁡ ( Q 1 , Q 2 , Q 3 , R 1 , R 2 , R 3 ) \boldsymbol{\Sigma}=\operatorname{diag}\left(\boldsymbol{Q}_1, \boldsymbol{Q}_2, \boldsymbol{Q}_3, \boldsymbol{R}_1, \boldsymbol{R}_2, \boldsymbol{R}_3\right) Σ=diag(Q1,Q2,Q3,R1,R2,R3) 。整个问题可以写成
x map  ∗ = arg ⁡ min ⁡ e T Σ − 1 e , \boldsymbol{x}_{\text {map }}^*=\arg \min \boldsymbol{e}^{\mathrm{T}} \mathbf{\Sigma}^{-1} \boldsymbol{e}, xmap =argmineTΣ1e,

之后我们将看到,这个问题有唯一的解:
x map  ∗ = ( H T Σ − 1 H ) − 1 H T Σ − 1 y \boldsymbol{x}_{\text {map }}^*=\left(\boldsymbol{H}^{\mathrm{T}} \mathbf{\Sigma}^{-1} \boldsymbol{H}\right)^{-1} \boldsymbol{H}^{\mathrm{T}} \boldsymbol{\Sigma}^{-1} \boldsymbol{y} xmap =(HTΣ1H)1HTΣ1y

3. 非线性最小二乘

先来考虑一个简单的最小二乘问题(注意 F ( x ) F(\boldsymbol{x}) F(x) f ( x ) f(\boldsymbol{x}) f(x)):
min ⁡ x F ( x ) = 1 2 ∥ f ( x ) ∥ 2 2 . \min _x F(\boldsymbol{x}) = \frac{1}{2}\|f(\boldsymbol{x})\|_2^2. xminF(x)=21f(x)22.

其中,自变量 x ∈ R n \boldsymbol{x} \in \mathbb{R}^n xRn f f f任意标量非线性函数 f ( x ) : R n → R f(\boldsymbol{x}):\mathbb{R}^n\rightarrow \mathbb{R} f(x):RnR。注意这里的系数 1 2 \frac{1}{2} 21 是无关紧要的,有些文献上带有这个系数,有些文献则不带,它不会影响之后的结论。下面讨论如何求解这样一个优化问题。显然,如果 f f f 是这个数学形式上很简单的函数,那么该问题可以用解析形式来求。令目标函数的导数为零,然后求解 x \boldsymbol{x} x 的最优值,就和一个求二元函数的极值一样:
d F   d x = 0. \frac{\mathrm{d} F}{\mathrm{~d} \boldsymbol{x}}=\mathbf{0} .  dxdF=0.

解此方程,就得到了导数为零处的极值。它们可能是极大、极小或鞍点处的值,只要逐个比较它们的函数值大小即可。但是,这个方程是否容易求解呢?这取决于 f f f 导函数的形式。如果 f f f 为简单的线性函数,那么这个问题就是简单的线性最小二乘问题,但是有些导函数可能形式复杂,使得该方程可能不容易求解。求解这个方程需要我们知道关于目标函数的全局性质,而通常这是不太可能的。对于不方便直接求解的最小二乘问题,我们可以用迭代的方式,从一个初始值出发,不断地更新当前的优化变量,使目标函数下降。具体步骤可列写如下:

  1. 给定某个初始值 x 0 x_0 x0
  2. 对于第 k k k 次迭代,寻找一个增量 Δ x k \Delta \boldsymbol{x}_k Δxk,使得 ∥ f ( x k + Δ x k ) ∥ 2 2 \left\|f\left(\boldsymbol{x}_k+\Delta \boldsymbol{x}_k\right)\right\|_2^2 f(xk+Δxk)22 达到极小值。
  3. Δ x k \Delta \boldsymbol{x}_k Δxk 足够小,则停止。
  4. 否则,令 x k + 1 = x k + Δ x k \boldsymbol{x}_{k+1}=\boldsymbol{x}_k+\Delta \boldsymbol{x}_k xk+1=xk+Δxk,返回第 2 2 2 步。

非线性优化_第1张图片

这让求解导函数为零的问题,变成了一个不断寻找下降增量 Δ x k \Delta \boldsymbol{x}_k Δxk 的问题,我们将看到,由于可以对 f f f 进行线性化,增量的计算将简单很多。当函数下降直到增量非常小的时候,就认为算法收敛,目标函数达到了一个极小值。在这个过程中,问题在于如何找到每次迭代点的增量,而这是一个局部的问题,我们只需关心 f f f 在迭代值处的局部性质而非全局性质。这类方法在最优化、机器学习等领域应用非常广泛。

接下来,我们考察如何寻找这个增量 Δ x k \Delta \boldsymbol{x}_k Δxk。这部分知识实际属于数值优化的领域,我们来看一些广泛使用的结果。

3.1 一阶和二阶梯度法

现在考虑第 k k k 次迭代,假设我们在 x k \boldsymbol{x_k} xk 处,想要寻到增量 Δ x k \Delta \boldsymbol{x_k} Δxk,那么最直观的方式是将目标函数在 x k \boldsymbol{x_k} xk 附近进行泰勒展开:
F ( x k + Δ x k ) ≈ F ( x k ) + J ( x k ) T Δ x k + 1 2 Δ x k T H ( x k ) Δ x k . F(\boldsymbol{x}_k+\Delta \boldsymbol{x}_k) \approx F(\boldsymbol{x}_k)+\boldsymbol{J}(\boldsymbol{x}_k)^T \Delta \boldsymbol{x}_k+\frac{1}{2} \Delta \boldsymbol{x}_k^T \boldsymbol{H}(\boldsymbol{x}_k) \Delta \boldsymbol{x}_k. F(xk+Δxk)F(xk)+J(xk)TΔxk+21ΔxkTH(xk)Δxk.

其中 J ( x k ) \boldsymbol{J}(\boldsymbol{x}_k) J(xk) F ( x ) F(\boldsymbol{x}) F(x) 关于 x \boldsymbol{x} x 的一阶导数(也叫梯度、雅可比(Jacobian)矩阵), H \boldsymbol{H} H 则是二阶导数(海塞 (Hessian) 矩阵),它们都在 x k \boldsymbol{x_k} xk 处取值。我们可以选择保留泰勒展开的一阶或二阶项,那么对应的求解方法则称为一阶梯度或二阶梯度法。如果保留一阶梯度,那么取增量的方向为反向的梯度,即可保证函数下降
Δ x ∗ = − J T ( x k ) . \Delta \boldsymbol{x}^*=-\boldsymbol{J}^T(\boldsymbol{x}_k) . Δx=JT(xk).

当然这只是个方向,通常我们还要再指定一个步长 λ \lambda λ。步长可以根据一定的条件来计算,在机器学习中也有一定经验性质的方法,但我们不展开谈。这种方法被称为最速下降法。它的直观意义非常简单,只要我们沿着反向梯度方向前进,在一阶(线性)的近似下,目标函数必定会下降

注意,以上讨论都是在第 k k k 次迭代时进行的,并不涉及其他的迭代信息。所以为了简化符号,后面我们省略下标 k k k,并认为这些讨论对任意一次迭代都成立。

另外,我们可以选择保留二阶梯度信息,此时增量方程为:
Δ x ∗ = arg ⁡ min ⁡ ( F ( x ) + J ( x ) T Δ x + 1 2 Δ x T H Δ x ) . \Delta \boldsymbol{x}^*=\arg \min (F(\boldsymbol{x})+\boldsymbol{J}(\boldsymbol{x})^T \Delta \boldsymbol{x}+\frac{1}{2} \Delta \boldsymbol{x}^T \boldsymbol{H} \Delta \boldsymbol{x}). Δx=argmin(F(x)+J(x)TΔx+21ΔxTHΔx).

右侧只含 Δ x \Delta \boldsymbol{x} Δx 的的零次、一次和二次项。求右侧等式关于 Δ x \Delta \boldsymbol{x} Δx 的导数并令它为零,得到:
J + H Δ x = 0 → H Δ x = − J . \boldsymbol{J}+\boldsymbol{H}\Delta\boldsymbol{x}=0\rightarrow \boldsymbol{H} \Delta \boldsymbol{x}=-\boldsymbol{J}. J+HΔx=0HΔx=J.

求解这个线性方程,就得到了增量。该方法又称为牛顿法

我们看到,一阶和二阶梯度法都十分直观,只要把函数在迭代点附近进行泰勒展开,并针对更新量做最小化即可。事实上,我们用一个一次或二次的函数近似了原函数,然后用近似函数的最小值来猜测原函数的极小值。只要原目标函数局部看起来像一次或二次函数,这类算法就是成立的。不过,这两种方法也存在它们自身的问题。最速下降法过于贪心,容易走出锯齿路线,反而增加了迭代次数(不是很好用的方法,容易走出之字型,收敛步数比较多。一阶得到的是一个一阶的近似,得到的是一个线性的)。
非线性优化_第2张图片

牛顿法则需要计算目标函数的 H \boldsymbol{H} H 矩阵,这在问题规模较大时非常困难,我们通常倾向于避免 H H H 的计算(二阶近似得到的是一个曲线的,所以不会像前面的‘之’字型这样,收敛的会更快。)。对于一般的问题,一些拟牛顿法可以得到较好的结果,而对于最小二乘问题,还有几类更实用的方法:高斯牛顿法列文伯格---马夸尔特方法

说白了,就是将 ∣ ∣ f ( x + Δ x ) ∣ ∣ 2 2 || f(x+\Delta x) ||^2_2 ∣∣f(x+Δx)22 x x x 处二阶泰勒展开,得:
∥ f ( x + Δ x ) ∥ 2 2 ≈ ∥ f ( x ) ∥ 2 2 + J ( x ) Δ x + 1 2 Δ x T H ( x ) Δ x \|f(\boldsymbol{x}+\Delta \boldsymbol{x})\|_2^2 \approx\|f(\boldsymbol{x})\|_2^2+\boldsymbol{J}(\boldsymbol{x}) \Delta \boldsymbol{x}+\frac{1}{2} \Delta \boldsymbol{x}^T \boldsymbol{H}(\boldsymbol{x}) \Delta \boldsymbol{x} f(x+Δx)22f(x)22+J(x)Δx+21ΔxTH(x)Δx

其中, J \boldsymbol{J} J ∥ f ( x ) ∥ 2 2 \|f(\boldsymbol{x})\|_2^2 f(x)22 x x x 的一阶导数(Jocabian矩阵), H ( x ) \boldsymbol{H}(\boldsymbol{x}) H(x) 是二阶导数(Hessian矩阵)。

  • 仅保留一阶项(最速下降法):
    Δ x ∗ = − J ( x ) T \Delta \boldsymbol{x}^*=-\boldsymbol{J}(\boldsymbol{x})^T Δx=J(x)T
    通常这个梯度会乘一个步长 λ \lambda λ ,即 Δ x ∗ = − λ J ( x ) T \Delta \boldsymbol{x}^*=-\lambda \boldsymbol{J}(\boldsymbol{x})^T Δx=λJ(x)T

  • 保留二阶项(牛顿法):
    Δ x ∗ = argmin ⁡ ( ∥ f ( x ) ∥ 2 2 + J ( x ) Δ x + 1 2 Δ x T H ( x ) Δ x ) \Delta x^*=\operatorname{argmin}\left(\|f(x)\|_2^2+J(x) \Delta x+\frac{1}{2} \Delta x^T H(x) \Delta x\right) Δx=argmin(f(x)22+J(x)Δx+21ΔxTH(x)Δx)
    右侧对 Δ x \Delta x Δx 求导可得:
    H ( x ) Δ x = − J ( x ) T \boldsymbol{H}(\boldsymbol{x}) \Delta \boldsymbol{x}=-\boldsymbol{J}(\boldsymbol{x})^T H(x)Δx=J(x)T

3.2 高斯牛顿法

高斯牛顿法是最优化算法里面最简单的方法之一。它的思想 f ( x ) f(\boldsymbol{x}) f(x) 进行一阶的泰勒展开(比如说, min ⁡ x F ( x ) = 1 2 ∥ f ( x ) ∥ 2 2 \min _x F(\boldsymbol{x}) = \frac{1}{2}\|f(\boldsymbol{x})\|_2^2 minxF(x)=21f(x)22,牛顿法求的是在 F ( x ) F(\boldsymbol{x}) F(x)上的二阶泰勒展开,而高斯牛顿法不用去纠结 f ( x + Δ x ) f(\boldsymbol{x}+\Delta \boldsymbol{x}) f(x+Δx) L 2 L_2 L2上的定义),请注意这里不是目标函数 F ( x ) F(\boldsymbol{x}) F(x) 而是 f ( x ) f(\boldsymbol{x}) f(x),否则就变成牛顿法了:
f ( x + Δ x ) ≈ f ( x ) + J ( x ) T Δ x . f(\boldsymbol{x}+\Delta \boldsymbol{x}) \approx f(\boldsymbol{x})+\boldsymbol{J}(\boldsymbol{x})^T \Delta \boldsymbol{x} . f(x+Δx)f(x)+J(x)TΔx.

这里 J ( x ) T \boldsymbol{J}(\boldsymbol{x})^T J(x)T f ( x ) f(\boldsymbol{x}) f(x) 关于 x \boldsymbol{x} x 的导数(高斯法中 J ( x k ) \boldsymbol{J}(\boldsymbol{x}_k) J(xk) F ( x ) F(\boldsymbol{x}) F(x) 关于 x \boldsymbol{x} x 的一阶导数),为 n × 1 n \times 1 n×1 的列向量。根据前面的框架,当前的目标是寻找增量 Δ x \Delta \boldsymbol{x} Δx,使得 ∥ f ( x + Δ x ) ∥ 2 \|f(\boldsymbol{x}+\Delta \boldsymbol{x})\|^2 f(x+Δx)2 达到最小。为了求 Δ x \Delta \boldsymbol{x} Δx,我们需要解一个线性的最小二乘问题:
Δ x ∗ = arg ⁡ min ⁡ Δ x 1 2 ∥ f ( x ) + J ( x ) T Δ x ∥ 2 . \Delta \boldsymbol{x}^*=\arg \min _{\Delta \boldsymbol{x}} \frac{1}{2}\|f(\boldsymbol{x})+\boldsymbol{J}(\boldsymbol{x})^T \Delta \boldsymbol{x}\|^2 . Δx=argΔxmin21f(x)+J(x)TΔx2.

这个方程与之前有什么不一样呢? 根据极值条件,将上述目标函数对 Δ x \Delta x Δx 求导,并令导数为零。为此,先展开目标函数的平方项:
1 2 ∥ f ( x ) + J ( x ) T Δ x ∥ 2 = 1 2 ( f ( x ) + J ( x ) T Δ x ) T ( f ( x ) + J ( x ) T Δ x ) = 1 2 ( ∥ f ( x ) ∥ 2 2 + 2 f ( x ) J ( x ) T Δ x + Δ x T J ( x ) J ( x ) T Δ x ) . \begin{aligned} \frac{1}{2}\|f(\boldsymbol{x})+\boldsymbol{J}(\boldsymbol{x})^T \Delta \boldsymbol{x}\|^2 &=\frac{1}{2}(f(\boldsymbol{x})+\boldsymbol{J}(\boldsymbol{x})^T \Delta \boldsymbol{x})^T(f(\boldsymbol{x})+\boldsymbol{J}(\boldsymbol{x})^T \Delta \boldsymbol{x}) \\ &=\frac{1}{2}\left(\|f(\boldsymbol{x})\|_2^2+2 f(\boldsymbol{x}) \boldsymbol{J}(\boldsymbol{x})^T \Delta \boldsymbol{x}+\Delta \boldsymbol{x}^T \boldsymbol{J}(\boldsymbol{x}) \boldsymbol{J}(\boldsymbol{x})^T \Delta \boldsymbol{x}\right) . \end{aligned} 21f(x)+J(x)TΔx2=21(f(x)+J(x)TΔx)T(f(x)+J(x)TΔx)=21(f(x)22+2f(x)J(x)TΔx+ΔxTJ(x)J(x)TΔx).

求上式关于 Δ x \Delta \boldsymbol{x} Δx 的导数,并令其为零:
J ( x ) f ( x ) + J ( x ) J ( x ) T Δ x = 0. \boldsymbol{J}(\boldsymbol{x}) f(\boldsymbol{x})+\boldsymbol{J}(\boldsymbol{x}) \boldsymbol{J}(\boldsymbol{x})^T \Delta \boldsymbol{x}=\mathbf{0} . J(x)f(x)+J(x)J(x)TΔx=0.

可以得到如下方程组:
J ( x ) T J ( x ) Δ x = − J ( x ) T f ( x ) \boldsymbol{J}(\boldsymbol{x})^T \boldsymbol{J}(\boldsymbol{x}) \Delta \boldsymbol{x}=-\boldsymbol{J}(\boldsymbol{x})^T f(\boldsymbol{x}) J(x)TJ(x)Δx=J(x)Tf(x)

这个方程是关于变量 Δ x \Delta \boldsymbol{x} Δx 的线性方程组,我们称它为增量方程,也可以称为高斯牛顿方程 (Gauss Newton equations) 或者正规方程 (Normal equations)。我们把左边的系数定义为 H \boldsymbol{H} H,右边定义为 g \boldsymbol{g} g,那么上式变为:
H Δ x = g . \boldsymbol{H} \Delta \boldsymbol{x}=\boldsymbol{g} . HΔx=g.

这里把左侧记作 H \boldsymbol{H} H 是有意义的。对比牛顿法可见,Gauss-Newton 用 J T J \boldsymbol{J}^T \boldsymbol{J} JTJ 作为牛顿法中二阶 Hessian 矩阵的近似(注意是近似!),从而省略了计算 H \boldsymbol{H} H 的过程。求解增量方程是整个优化问题的核心所在。如果我们能够顺利解出该方程,那么 Gauss-Newton 的算法步骤可以写成:

  1. 给定初始值 x 0 \boldsymbol{x}_0 x0
  2. 对于第 k k k 次迭代,求出当前的雅可比矩阵 J ( x k ) \boldsymbol{J}\left(\boldsymbol{x}_k\right) J(xk) 和误差 f ( x k ) f\left(\boldsymbol{x}_k\right) f(xk)
  3. 求解增量方程: H Δ x k = g \boldsymbol{H} \Delta \boldsymbol{x}_k=\boldsymbol{g} HΔxk=g.
  4. Δ x k \Delta \boldsymbol{x}_k Δxk 足够小,则停止。否则,令 x k + 1 = x k + Δ x k \boldsymbol{x}_{k+1}=\boldsymbol{x}_k+\Delta \boldsymbol{x}_k xk+1=xk+Δxk,返回 2。

从算法步骤中可以看到,增量方程的求解占据着主要地位。只要我们能够顺利解出增量,就能保证目标函数能够正确地下降。

为了求解增量方程,我们需要求解 H − 1 \boldsymbol{H}^{-1} H1这需要 H \boldsymbol{H} H 矩阵可逆,但实际数据中计算得到的 J T J \boldsymbol{J}^T \boldsymbol{J} JTJ 却只有半正定性。也就是说,在使用高斯牛顿法时,可能出现 J T J \boldsymbol{J}^T \boldsymbol{J} JTJ奇异矩阵或者病态 (ill-condition) 的情况,此时增量的稳定性较差,导致算法不收敛。直观地说,原函数在这个点的局部近似不像一个二次函数。更严重的是,就算我们假设 H \boldsymbol{H} H 非奇异也非病态,如果我们求出来的步长 Δ x \Delta \boldsymbol{x} Δx 太大,也会导致我们采用的局部近似 f ( x + Δ x ) ≈ f ( x ) + J ( x ) T Δ x f(\boldsymbol{x}+\Delta \boldsymbol{x}) \approx f(\boldsymbol{x})+\boldsymbol{J}(\boldsymbol{x})^T \Delta \boldsymbol{x} f(x+Δx)f(x)+J(x)TΔx 不够准确,这样一来我们甚至无法保证它的迭代收敛,哪怕是让目标函数变得更大都是有可能的。
非线性优化_第3张图片

尽管高斯牛顿法有这些缺点,但它依然算是非线性优化方面一种简单有效的方法,值得我们学习。在非线性优化领域,相当多的算法都可以归结为高斯牛顿法的变种。这些算法都借助了高斯牛顿法的思想并且通过自己的改进修正其缺点。例如一些线搜索方法 (Line Search Method)加入了一个步长 α \alpha α,在确定了 Δ x \Delta \boldsymbol{x} Δx 后进一步找到 α \alpha α 使得 ∥ f ( x + α Δ x ) ∥ 2 \|f(\boldsymbol{x}+\alpha \boldsymbol{\Delta} \boldsymbol{x})\|^2 f(x+αΔx)2 达到最小,而不是简单地令 α = 1 \alpha=1 α=1

列文伯格---马夸尔特方法在一定程度上修正了这些问题。一般认为它比高斯牛顿法更为健壮,它的收敛速度可能比高斯牛顿法更慢,被称之为阻尼牛顿法 (Damped Newton Method)

3.3 列文伯格—马夸尔特方法

高斯牛顿法中采用的近似二阶泰勒展开只能在展开点附近有较好的近似效果,所以我们很自然地想到应该给 Δ x \Delta \boldsymbol{x} Δx 添加一个范围,称为信赖区域 (Trust Region)。这个范围定义了在什么情况下二阶近似是有效的,这类方法也被称为信赖区域方法 (Trust Region Method)。在信赖区域里,我们认为近似是有效的;出了这个区域,近似可能会出问题。

那么,如何确定这个信赖区域的范围呢? 一个比较好的方法是根据我们的近似模型跟实际函数之间的差异来确定:如果差异小,说明近似效果好,我们扩大近似的范围;反之,如果差异大,就缩小近似的范围。我们定义一个指标 ρ \rho ρ 来刻画近似的好坏程度:
ρ = f ( x + Δ x ) − f ( x ) J ( x ) T Δ x . \rho=\frac{f(\boldsymbol{x}+\Delta \boldsymbol{x})-f(\boldsymbol{x})}{\boldsymbol{J}(\boldsymbol{x})^T \Delta \boldsymbol{x}} . ρ=J(x)TΔxf(x+Δx)f(x).

ρ \rho ρ 的分子是实际函数下降的值,分母是近似模型下降的值。如果 ρ \rho ρ 接近于 1 1 1,则近似是好的。如果 ρ \rho ρ 太小,说明实际减小的值远少于近似减小的值,则认为近似比较差,需要缩小近似范围。反之,如果 ρ \rho ρ 比较大,则说明实际下降的比预计的更大,我们可以放大近似范围。
于是,我们构建一个改良版的非线性优化框架,该框架会比高斯牛顿法有更好的效果:

  1. 给定初始值 x 0 \boldsymbol{x}_0 x0,以及初始优化半径 μ \mu μ

  2. 对于第 k k k 次迭代,在高斯牛顿法的基础上加上信赖区域,求解:
    min ⁡ Δ x k 1 2 ∥ f ( x k ) + J ( x k ) T Δ x k ∥ 2 ,  s.t.  ∥ D Δ x k ∥ 2 ≤ μ , \min _{\Delta \boldsymbol{x}_k} \frac{1}{2}\left\|f\left(\boldsymbol{x}_k\right)+\boldsymbol{J}\left(\boldsymbol{x}_k\right)^T \Delta \boldsymbol{x}_k\right\|^2, \quad \text { s.t. }\left\|\boldsymbol{D} \Delta \boldsymbol{x}_k\right\|^2 \leq \mu, Δxkmin21 f(xk)+J(xk)TΔxk 2, s.t. DΔxk2μ,

    这里, μ \mu μ 是信赖区域的半径, D D D 为系数矩阵,将在后文中说明。

  3. 按公式 ρ = f ( x + Δ x ) − f ( x ) J ( x ) T Δ x \rho=\frac{f(\boldsymbol{x}+\Delta \boldsymbol{x})-f(\boldsymbol{x})}{\boldsymbol{J}(\boldsymbol{x})^T \Delta \boldsymbol{x}} ρ=J(x)TΔxf(x+Δx)f(x) 计算 ρ \rho ρ

  4. ρ > 3 4 \rho>\frac{3}{4} ρ>43,则 μ = 2 μ \mu=2 \mu μ=2μ;

  5. ρ < 1 4 \rho<\frac{1}{4} ρ<41,则 μ = 0.5 μ \mu=0.5 \mu μ=0.5μ;

  6. 如果 ρ \rho ρ 大于某阈值,则认为近似可行。令 x k + 1 = x k + Δ x k \boldsymbol{x}_{k+1}=\boldsymbol{x}_k+\Delta \boldsymbol{x}_k xk+1=xk+Δxk

  7. 判断算法是否收敛。如不收敛则返回 2 2 2,否则结束。

这里近似范围扩大的倍数和阈值都是经验值,可以替换成别的数值。在式 min ⁡ Δ x k 1 2 ∥ f ( x k ) + J ( x k ) T Δ x k ∥ 2 ,  s.t.  ∥ D Δ x k ∥ 2 ≤ μ \min _{\Delta \boldsymbol{x}_k} \frac{1}{2}\left\|f\left(\boldsymbol{x}_k\right)+\boldsymbol{J}\left(\boldsymbol{x}_k\right)^T \Delta \boldsymbol{x}_k\right\|^2, \text { s.t. }\left\|\boldsymbol{D} \Delta \boldsymbol{x}_k\right\|^2 \leq \mu minΔxk21 f(xk)+J(xk)TΔxk 2, s.t. DΔxk2μ 中,我们把增量限定于一个半径为 μ \mu μ 的球中,认为只在这个球内才是有效的。带上 D \boldsymbol{D} D 之后,这个球可以看成一个椭球。在列文伯格提出的优化方法中,把 D \boldsymbol{D} D 取成单位阵 I \boldsymbol{I} I,相当于直接把 Δ x k \Delta \boldsymbol{x}_k Δxk 约束在一个球中。随后,马尔夸特提出将 D \boldsymbol{D} D 取成非负数对角阵一一实际中通常用 J T J \boldsymbol{J}^T \boldsymbol{J} JTJ 的对角元素平方根,使得在梯度小的维度上约束范围更大一些。

不论如何,在列文伯格—马夸尔特方法优化中,我们都需要解式 min ⁡ Δ x k 1 2 ∥ f ( x k ) + J ( x k ) T Δ x k ∥ 2 ,  s.t.  ∥ D Δ x k ∥ 2 ≤ μ \min _{\Delta \boldsymbol{x}_k} \frac{1}{2}\left\|f\left(\boldsymbol{x}_k\right)+\boldsymbol{J}\left(\boldsymbol{x}_k\right)^T \Delta \boldsymbol{x}_k\right\|^2, \text { s.t. }\left\|\boldsymbol{D} \Delta \boldsymbol{x}_k\right\|^2 \leq \mu minΔxk21 f(xk)+J(xk)TΔxk 2, s.t. DΔxk2μ 这样一个子问题来获得梯度。这个子问题是带不等式约束的优化问题,我们用拉格朗日乘子把约束项放到目标函数中,构成拉格朗日函数:
L ( Δ x k , λ ) = 1 2 ∥ f ( x k ) + J ( x k ) T Δ x k ∥ 2 + λ 2 ( ∥ D Δ x k ∥ 2 − μ ) . \mathcal{L}\left(\Delta \boldsymbol{x}_k, \lambda\right)=\frac{1}{2}\left\|f\left(\boldsymbol{x}_k\right)+\boldsymbol{J}\left(\boldsymbol{x}_k\right)^{\mathrm{T}} \Delta \boldsymbol{x}_k\right\|^2+\frac{\lambda}{2}\left(\left\|\boldsymbol{D} \Delta \boldsymbol{x}_k\right\|^2-\mu\right) . L(Δxk,λ)=21 f(xk)+J(xk)TΔxk 2+2λ(DΔxk2μ).

这里 λ \lambda λ 为拉格朗日乘子。类似于高斯牛顿法中的做法,令该拉格朗日函数关于 Δ x \Delta \boldsymbol{x} Δx 的导数为零,它的核心仍是计算增量的线性方程:
( H + λ D T D ) Δ x k = g . \left(\boldsymbol{H}+\lambda \boldsymbol{D}^{\mathrm{T}} \boldsymbol{D}\right) \Delta \boldsymbol{x}_k=\boldsymbol{g} . (H+λDTD)Δxk=g.

可以看到,相比于高斯牛顿法,增量方程多了一项 λ D T D \lambda \boldsymbol{D}^T \boldsymbol{D} λDTD 。如果考虑它的简化形式,即 D = I D=I D=I,那么相当于求解:
( H + λ I ) Δ x k = g . (\boldsymbol{H}+\lambda \boldsymbol{I}) \Delta \boldsymbol{x}_k=\boldsymbol{g} . (H+λI)Δxk=g.

我们看到,一方面,当参数 λ \lambda λ 比较小时, H \boldsymbol{H} H 占主要地位,这说明二次近似模型在该范围内是比较好的,列文伯格一马夸尔特方法更接近于高斯牛顿法。另一方面,当 λ \lambda λ 比较大时, λ I \lambda \boldsymbol{I} λI 占据主要地位,列文伯格一马夸尔特方法更接近于一阶梯度下降法 (即最速下降),这说明附近的二次近似不够好列文伯格一马夸尔特方法的求解方式,可在一定程度上避免线性方程组的系数矩阵的非奇异和病态问题,提供更稳定、更准确的增量 Δ x 0 \Delta \boldsymbol{x}_0 Δx0

在实际中,还存在许多其他的方式来求解增量,例如 Dog-Leg 等方法。我们在这里所介绍的,只是最常见而且最基本的方法,也是视觉 SLAM 中用得最多的方法。实际问题中,我们通常选择高斯牛顿法或列文伯格一马夸尔特方法中的一种作为梯度下降策略。当问题性质较好时,用高斯牛顿。如果问题接近病态,则用列文伯格一马夸尔特方法

3.4 小结

这里只罗列了最常见的两种非线性优化方案——高斯牛顿法和列文伯格–马尔夸特方法。我们避开了许多数学性质上的讨论。如果读者对优化感兴趣,可以进一步阅读专门介绍数值优化的书籍(这是一个很大的课题)。以高斯牛顿法和列文伯格–马尔夸特方法为代表的优化方法,在很多开源的优化库都已经实现并提供给用户。最优化是处理许多实际问题的基本数学工具,不光在视觉 SLAM 起着核心作用,在类似于深度学习等其它领域,它也是求解问题的核心方法之一。我们希望读者能够根据自身能力, 去了解更多的最优化算法。

也许你发现了,无论是高斯牛顿法还是列文伯格–马尔夸特方法,在做最优化计算时,都需要提供变量的初始值。你也许会问,这个初始值能否随意设置? 当然不能。实际上非线性优化的所有迭代求解方案,都需要用户来提供一个良好的初始值。由于目标函数太复杂,导致在求解空间上的变化难以预测,对问题提供不同的初始值往往会导致不同的计算结果。这种情况是非线性优化的通病:大多数算法都容易陷入局部极小值。因此,无论是哪类科学问题,我们提供初始值都应该有科学依据,例如视觉 SLAM 问题中,我们会用 ICP、PnP 之类的算法提供优化初始值。总之,一个良好的初始值对最优化问题非常重要

也许读者还会对上面提到的最优化产生疑问:如何求解线性增量方程组呢? 我们只讲到了增量方程是一个线性方程,但是直接对系数矩阵进行求逆岂不是要进行大量的计算? 当然不是。在视觉 SLAM 算法里,经常遇到 Δ x \Delta \boldsymbol{x} Δx 的维度大到好几百或者上千,如果你是要做大规模的视觉三维重建,就会经常发现这个维度可以轻易达到几十万甚至更高的级别。要对那么大个矩阵进行求逆是大多数处理器无法负担的,因此存在着许多针对线性方程组的数值求解方法。在不同的领域有不同的求解方式,但几乎没有一种方式是直接求系数矩阵的逆,我们会采用矩阵分解的方法来解线性方程,例如 Q R \mathrm{QR} QR 、Cholesky 等分解方法。这些方法通常在矩阵论等教科书中可以找到,我们不多加介绍。

幸运的是,视觉 SLAM 里,这个矩阵往往有特定的稀疏形式,这为实时求解优化问题提供了可能性。利用稀疏形式的消元、分解,最后再进行求解增量,会让求解的效率大大提高。在很多开源的优化库上,维度为一万多的变量在一般的 PC 上就可以在几秒甚至更短的时间内就被求解出来,其原因也是用了更加高级的数学工具。视觉 SLAM 算法现在能够实时地实现,也是多亏了系数矩阵是稀疏的,如果矩阵是稠密的,恐怕优化这类视觉 SLAM 算法就不会被学界广泛采纳了。

你可能感兴趣的:(#,非线性优化,人工智能,计算机视觉,算法)