标签(空格分隔): 数值优化 线性代数
这篇文章最早是在作业部落写的,但是没什么人访问,所以这里补录一下
本文介绍和总结共轭梯度(conjugate gradient)算法的如下内容:
共轭梯度算法的背景和由来
梯度算法的几何理解和共轭梯度算法的流程
基于SSOR预条件子的共轭梯度算法
非线性共轭梯度算法
共轭梯度算法的由来,源于求解如下所示的二次型问题:
KaTeX parse error: \tag works only in display equations
如果对于问题的求解,可以被转化为如上所示的二次型表达式(Quadratic Form)的极值,那么求解这个问题的方法也称为二次规划(Quadratic Programming)
二次规划问题,有一个极好的性质,这个性质直接导致了该问题的求解有较好的几何解释,这个性质就是如果矩阵 A A A为对称矩阵,那么把这个函数对列向量 x x x求导取极值,得到的梯度方向向量 x x x满足:
KaTeX parse error: \tag works only in display equations
这个 A x = b Ax=b Ax=b是经典的线性代数求解线性方程组的问题,求极值即是求解线性方程组,而矩阵 A A A的性质,直接决定了梯度方向的情况。
对一个从 n n n维到 1 1 1维的函数映射 f ( x ) f(x) f(x),对列向量求导即:
(3) f ′ ( x ) = [ ∂ f ( x ) ∂ x 1 ⋮ ∂ f ( x ) ∂ x n ] f^{'}(x)=\begin{bmatrix} \frac{\partial f(x)}{\partial x_{1}} \\ \vdots\\ \frac{\partial f(x)}{\partial x_{n}} \end{bmatrix}\tag{3} f′(x)=⎣⎢⎢⎡∂x1∂f(x)⋮∂xn∂f(x)⎦⎥⎥⎤(3)
如果仅仅只看二次型中的二次项,那么
(4) g ( x ) = x T A x = ∑ i = 0 n ∑ j = 0 n a i j x i x j = . . . + ∑ i = 0 n a i k x i x k + ∑ j = 0 n a k j x k x j − a k k x k x k + . . . = . . . + ∑ i = 0 , i ≠ k n a i k x i x k + ∑ j = 0 , j ≠ k n a k j x k x j + a k k x k x k + . . .    ⟹    ∂ g ( x ) ∂ x k = ∑ i = 0 n a i k x i + ∑ j = 1 n a k j x j g(x)=x^TAx=\sum_{i=0}^{n}\sum_{j=0}^{n}a_{ij}x_ix_j \\ =... + \sum_{i=0}^{n}a_{ik}x_ix_k+\sum_{j=0}^{n}a_{kj}x_kx_j-a_{kk}x_kx_k + ...\\ =...+\sum_{i=0,i\ne k}^{n}a_{ik}x_ix_k + \sum_{j=0,j\ne k}^{n}a_{kj}x_kx_j+a_{kk}x_kx_k+...\\ \implies \frac{\partial g(x)}{\partial x_k}=\sum_{i=0}^{n}a_{ik}x_i+\sum_{j=1}^{n}a_{kj}x_j \tag{4} g(x)=xTAx=i=0∑nj=0∑naijxixj=...+i=0∑naikxixk+j=0∑nakjxkxj−akkxkxk+...=...+i=0,i̸=k∑naikxixk+j=0,j̸=k∑nakjxkxj+akkxkxk+...⟹∂xk∂g(x)=i=0∑naikxi+j=1∑nakjxj(4)
仔细观察上述表达式,可以发现,求导结果的第 k k k个元素等于矩阵 A A A的第 k k k行和第 k k k列分别与向量点积的结果,所以
(5) ∂ g ( x ) ∂ x = A T x + A x    ⟹    ∂ f ( x ) ∂ x = 1 2 ( A T + A ) x − b \frac{\partial g(x)}{\partial x}=A^Tx+Ax \implies \frac{\partial f(x)}{\partial x}=\frac{1}{2}(A^T+A)x-b\tag{5} ∂x∂g(x)=ATx+Ax⟹∂x∂f(x)=21(AT+A)x−b(5)
如果A是对称矩阵的形式,那么,通过求导求解极值相当于求解方程组
(6) A x = b Ax=b \tag{6} Ax=b(6)
二次规划是一些问题的最简单的建模表达形式,比如,在EDA(电子电气自动化)软件开发中,有这样的需求,就是要对各个电子元器件在电路板或者FPGA的电路平面进行自动化布局。每个元器件可以抽象为一些有面积的方型块,然后通过设定一些约束,定义损失函数,最后,通过不断迭代减少损失函数,更新各个电路元件的坐标信息,最终得到各个电子元器件在电路中的较优的全局布局结果。这些图可以有多层,而且损失函数通常也是非线性的,迭代求解通常基于各种梯度下降算法。期间需要考虑各个图层每一块面积的覆盖率,重叠程度等等参数。
如果对问题进行全面的建模,那么自然会比较复杂,如果只考虑最简单的情况,通过把元器件视为一个点,同时通过引入锚点,那么这个问题可以被简化为二次规划问题,通常二次规划问题用于电子元器件的预布局,然后才引入非线性函数进一步处理。
如果优化的目标可以被简化为让各个元器件之间的 x x x和 y y y坐标之间的距离尽可能分散,那么此时损失函数等于
(7) c f = ∑ i , j w i j ( ( x i − x j ) 2 + ( y i − y j ) 2 ) + ∑ f , H ( f ) w f H ( f ) ( ( x f − x H ( f ) ) 2 + ( y f − y H ( f ) ) 2 ) cf=\sum_{i,j}w_{ij}((x_i-x_j)^2+(y_i-y_j)^2)+ \\ \sum_{f,H(f)}w_{fH(f)}((x_f - x_{H(f)})^2+(y_f-y_{H(f)})^2) \tag{7} cf=i,j∑wij((xi−xj)2+(yi−yj)2)+f,H(f)∑wfH(f)((xf−xH(f))2+(yf−yH(f))2)(7)
如果令 x = ( x 1 , x 2 , . . . , x n ) T x=(x_1,x_2,...,x_n)^T x=(x1,x2,...,xn)T, y = ( y 1 , y 2 , . . . , y n ) T y=(y_1,y_2,...,y_n)^T y=(y1,y2,...,yn)T,那么,完全可以表达成两个二次型表达式,其中后半部分的 w f H ( f ) w_{fH(f)} wfH(f)表示的是锚点到可动点的权重,实际优化该函数,锚点部分只会对 A A A的对角线,以及 b T b^T bT有影响,优化的结果就是在锚点的约束下,各个点的距离之间尽可能小。
由于问题的特殊形式,问题的求解完全也可以把 x x x和 y y y左边分别分成两个部分:
(8) A x = b x Ax=b_x \tag{8} Ax=bx(8) (9) A y = b y Ay=b_y \tag{9} Ay=by(9)
也就是等价于求解线性方程组了
共轭梯度算法来源于二次型问题的求解,二次型问题可以在几何上直观的理解,即使是最速梯度下降(Steepest Descent),也可以这样来理解。
二次型的几何图解完全取决于矩阵 A A A,如果 A A A是正定的矩阵,那么图像将会是:
也就是是一个碗状朝上的结构,因为对于正定矩阵来说,任何非零向量,都有:
(10) x T A x > 0 x^TAx>0 \tag{10} xTAx>0(10)
这个定义的本质是,所有的特征向量所对应的特征值都是正的,因为:
(11) x T A x = x T λ x > 0    ⟹    λ > 0 x^TAx=x^T\lambda x>0 \implies \lambda > 0 \tag{11} xTAx=xTλx>0⟹λ>0(11)
对于二次型来说,求导的梯度方向由 A x = b Ax=b Ax=b决定, A A A正定(positive definite),意味着各个向量 x x x变换到 A A A的列空间中得到的向量 A x Ax Ax都是单调递增的,所以二次型表达式(如果是二维的)的几何图形就是中间凹陷,四周往上的碗状。同理,可以定义半正定,负定等,那么图形就是:
对于既非负定也非正定的情况,就是马鞍型,这个不管使用什么梯度方法,理论上都可能不会收敛。对于更高维度的情况,其实也是类似的,这里边正定或者负定的属性,决定了梯度方向是不是单调递增/递减的。对二次型,后边都是基于对称正定矩阵来分析的,那些梯度方法也源于此来进行基本的几何分析。
对于最速梯度下降(Steepest Descent)而言,选定了初始的方向向量 x 0 x_0 x0后,后续每一次迭代所选择的方向向量由当前的梯度方向决定:
(12) x i + 1 = x i + α r i x_{i+1}=x_i+\alpha r_i \tag{12} xi+1=xi+αri(12)
其中 r i r_i ri是方向向量,默认就是取梯度的负方向。这个过程的本质,其实就是线搜索(line search),如下图所示:
上图是二次型在变量维度为二维的时候的共势等高图,线是梯度负方向,每次迭代的本质就是在沿着这条线走,直到到达某点后停止,得到此时的向量 x i + 1 x_{i+1} xi+1,一般情况下,步长 α \alpha α是可以固定的,特别是在函数是非线性,且非常复杂的时候,要想每一次都计算最好的步长,可能是非常复杂且不划算的,不过对于二次型问题而言,我们却可以设法找到最优的 α \alpha α,通过查看上图的各个结果向量,为了更接近与最小点, r i + 1 r_{i+1} ri+1应该和 r i r_i ri正交,此时,才是沿着当前的搜索方向的最优解。因为这个时候,向量已经沿着该方向尽可能往这个方向走,且已经不可能贡献再多的效用了,再走就又回去了。
对于二次型,梯度负方向等于:
(13) f i ′ ( x ) = A x i − b    ⟹    r i = − f i ′ ( x ) = b − A x i f^{'}_i(x)=Ax_i-b \implies r_i=-f^{'}_i(x)=b-Ax_i \tag{13} fi′(x)=Axi−b⟹ri=−fi′(x)=b−Axi(13)
利用正交关系进行推导,可以得到:
r i + 1 T r i = ( b − A x i + 1 ) T r i = ( b − A ( x i + α r i ) ) T r i = 0 ( b − A x i ) T r i − α r i T A T r i = r i T − α r i T A r i = 0 r_{i+1}^Tr_i=(b-Ax_{i+1})^Tr_i=(b-A(x_i+\alpha r_i))^Tr_i=0 \\ (b-Ax_i)^Tr_i-\alpha r_i^TA^Tr_i=r^T_i-\alpha r_i^TAr_i=0 ri+1Tri=(b−Axi+1)Tri=(b−A(xi+αri))Tri=0(b−Axi)Tri−αriTATri=riT−αriTAri=0
所以
(14) α = r i T r i r i T A r i \alpha=\frac{r_i^Tr_i}{r_i^TAr_i} \tag{14} α=riTAririTri(14)
这里边每次给出 r i r_i ri的时候都相当于直接求导了,如果根据迭代的形式给出下一个方向向量,那么
(15) r i + 1 = b − A x i + 1 = b − A ( x i + α r i ) = r i − α A r i r_{i+1}=b-Ax_{i+1}=b-A(x_i+\alpha r_i)=r_i-\alpha Ar_i \tag{15} ri+1=b−Axi+1=b−A(xi+αri)=ri−αAri(15)
用迭代的形式给出每一次的梯度方向向量,虽然也许能够节省计算开销,但是限于实际机器的浮点精度,可能会产生累积误差,所以一般也需要在迭代了几十次后,重新严格计算梯度,以避免传递误差过大。
这样我们就可以得到最速梯度下降算法的流程是:
import numpy as np
def steepest_descent(A, b, x_initial, max_step, thresh=0.00001):
assert(isinstance(A, np.matrix))
assert (isinstance(b, np.matrix))
assert (isinstance(x_initial, np.matrix))
x = x_initial
for _ in range(max_step):
r = b - A * x
alpha = (r.transpose() * r) / (r.transpose() * A * r)
x = x + r * alpha
dist = np.sqrt(np.sum(np.square(b - A * x)))
if dist < thresh:
break
return x
if __name__ == '__main__':
N = 100
Ar = np.mat(np.random.rand(N, N))
As = Ar * Ar.transpose() # get positive definite matrix
bn = np.mat(np.random.rand(N, 1))
xi = np.mat(np.zeros((N, 1)))
xr = steepest_descent(As, bn, xi, 1000)
print('1000:', np.sqrt(np.sum(np.square(bn - As * xr))))
xr = steepest_descent(As, bn, xi, 10000)
print('10000:', np.sqrt(np.sum(np.square(bn - As * xr))))
xr = steepest_descent(As, bn, xi, 20000)
print('20000:', np.sqrt(np.sum(np.square(bn - As * xr))))
上边的Python代码体现了SD的最直接流程,梯度都是直接计算的,实际真的要应用,还要考虑稀疏矩阵,计算效率问题,否则效率太低了,也没有使用价值。当然,这个只用于二次型问题。
对一些非线性函数问题,就需要通过别的方式求导,而且步长 α \alpha α也需要确定,或者设定个固定值!如下所示是该代码的一次运行结果:
1000: 1.9453821317304896
10000: 0.9116628408830175
20000: 0.6950563935826073
运行SD的例子,会发现,随机生成的一个对称矩阵,迭代了几万次仍然不收敛,可以见得,按照SD的理论公式求解 A x = b Ax=b Ax=b效果有些不理想,收敛过慢。在数值优化里边,一个矩阵迭代求解方法是否收敛,取决于这个矩阵是否严格对角占优,即
(16) A = ( a i j ) , ∀ i ∈ [ 1 , n ] , ∣ a i i ∣ > ∑ i ≠ j ∣ a i j ∣ A=(a_ij), \forall i \in [1, n], |a_{ii}| \gt \sum_{i \ne j}|a_{ij}| \tag{16} A=(aij),∀i∈[1,n],∣aii∣>i̸=j∑∣aij∣(16)
越是严格对角占优,越是收敛得越快。
SD这个方法,使用梯度方向,每次选择梯度方向都和上一次的正交,这样迭代的结果取决于初始点的选择和 A A A,如果初始点不理想,可能一直在锯齿状的接近极值点,但是迭代多次后仍然不能命中。
对于当前的二次型而言,不是多么复杂的问题,变量的维度也许就是 n n n而已,存不存在这样的迭代方法,使得每一次迭代,都消减一个维度方向,后边的方向和前边的方向都完全正交呢?这样的话,我只需要 n n n步迭代就可以直接命中极值点了。这个思想,我觉得就是CG背后的想法。如果选择 n n n个线性无关的向量 u 1 , u 2 , . . . , u n u_1,u_2,...,u_n u1,u2,...,un,那么依据施密特(Gram-Schmidt Process)正交化的过程,每个方向向量为:
(17) d i = u i + ∑ k = 0 i − 1 β i k d k d_i=u_i+\sum_{k=0}^{i-1}\beta_{ik}d_k \tag{17} di=ui+k=0∑i−1βikdk(17)
在CG中,引入了共轭方向的概念。这个概念本质上就是对正交的推广,任何向量在欧几里得空间内正交意味着:
(18) x T y = 0 x^Ty=0 \tag{18} xTy=0(18)
如果引入矩阵 A A A,且
(19) x T A y = 0 x^TAy=0 \tag{19} xTAy=0(19)
那么称向量 x x x和 y y y是 A A A正交的,这里边 A A A都是方阵,看起来就像是把变量线变换到 A A A的行列空间中,然后这些向量在 A A A的行列空间中正交。这些两两 A A A正交的向量被称为共轭方向向量。如果给个图解,那么就会如下图所示:
前后两个方向向量是 A A A正交(A-orthogonal)的,意味着 d i T A d j = 0 d_i^TAd_j=0 diTAdj=0,即使这两个向量在当前空间不正交,在 A A A的空间中正交也行,可以想象,当前空间中的所有向量都变换到 A A A的空间后,着两个向量在 A A A空间中就是正交的。
上边的过程容易让人联想起线性代数中的二次型标准化过程,二次型标准化,首先通过平移变换,让二次型变成了如下的形式:
(20) f ( x ) = x T A x f(x)=x^TAx \tag{20} f(x)=xTAx(20)
然后找寻 A A A的 n n n个标准正交的特征向量 C = ( c 1 , c 2 , . . . , c n ) C=(c_1,c_2,...,c_n) C=(c1,c2,...,cn),然后做如下变换:
(21) C y = x    ⟹    f ( x ) = x T A x = y T C T A C y = y T Λ y Cy=x \implies f(x)=x^TAx=y^TC^TACy=y^T\Lambda y \tag{21} Cy=x⟹f(x)=xTAx=yTCTACy=yTΛy(21)
最终 A A A变成了对角矩阵的形式,这个时候对应的二次型的几何图形就是很标准的碗状了
个人觉得, A A A正交也是希望在 A A A标准化后的空间中正交。其实标准化前后,所代表的线性空间是不变的。在几何理解里边,都以标准化后的空间中的向量来分析理解。
二次型的基本迭代流程还是不变的:
(22) x k + 1 = x k + α k d k x_{k+1}=x_{k}+\alpha_{k}d_k \tag{22} xk+1=xk+αkdk(22)
如果采用迭代求解梯度,那么下边的等式仍然成立:
(23) r k + 1 = r k − α k A r k r_{k+1}=r_k-\alpha_{k}Ar_k \tag{23} rk+1=rk−αkArk(23)
对等式22向 α k \alpha_{k} αk求导:
(24) ∂ f ( x k + 1 ) ∂ α k = f ′ ( x k + 1 ) T ∂ x k + 1 ∂ α k = − r k + 1 T d k = − ( A x − A x k + 1 ) T d k = − d k T A e k + 1 = 0    ⟹    d k T A e k + 1 = 0 \frac{\partial f(x_{k+1})}{\partial \alpha_{k}}=f^{'}(x_{k+1})^T\frac{\partial x_{k+1}}{\partial \alpha_k} \\ =-r_{k+1}^Td_k=-(Ax-Ax_{k+1})^Td_k=-d_k^TAe_{k+1}=0 \\ \implies d_k^TAe_{k+1}=0 \tag{24} ∂αk∂f(xk+1)=f′(xk+1)T∂αk∂xk+1=−rk+1Tdk=−(Ax−Axk+1)Tdk=−dkTAek+1=0⟹dkTAek+1=0(24)
可以看到,最优的步长是使得下一个误差方向和当前的方向 A A A正交,由于
(25) e k + 1 = e k + α k d k e_{k+1}=e_k+\alpha_kd_k \tag{25} ek+1=ek+αkdk(25)
所以
(26) d k T A ( e k + α k d k ) = 0    ⟹    α k = − d k T A e k d k T A d k = d k T r k d k T A d k e k = x k − x , A x = b d_k^TA(e_k+\alpha_kd_k)=0 \implies \alpha_k=-\frac{d_k^TAe_k}{d_k^TAd_k}=\frac{d_k^Tr_k}{d_k^TAd_k}\\ e_k=x_k-x, Ax=b \tag{26} dkTA(ek+αkdk)=0⟹αk=−dkTAdkdkTAek=dkTAdkdkTrkek=xk−x,Ax=b(26)
最优的步长因子和当前的梯度和方向向量均相关。从上边的表达式知道,当前反向和剩余误差方向是 A A A正交的,而我们也希望:
(27) d k T A d k + 1 = 0 d_k^TAd_{k+1}=0 \tag{27} dkTAdk+1=0(27)
如果下一个方向向量和当前的也 A A A正交就好了,当然了,如果下一个方向向量 d k + 1 d_{k+1} dk+1刚好选择到了剩余的误差向量 e k + 1 e_{k+1} ek+1,那么下一次迭代就会直接命中极值点了,但是一般这个是不可能的,因为 e k + 1 e_{k+1} ek+1是依赖于 α k \alpha_k αk的,会有循环求解的问题,除非我们已经知道解了,否则我们是得不到 e k + 1 e_{k+1} ek+1的,而且在高维空间中,和 d k d_k dk向量 A A A正交的向量是有很多个的,我们希望的是找到一个 d k + 1 d_{k+1} dk+1满足上边表达式即可,于此同时,也满足
(28) d k T A d m = 0 , ∀ m < k d_k^TAd_m=0, \forall m \lt k \tag{28} dkTAdm=0,∀m<k(28)
这样每次迭代都减少了一个维度,那么,最多 n n n步就可以收敛了。
这个过程,在变量为二维的情况下理解,大概如下图所示:
这些椭圆是三维图形在二维的等势面,其实就是 f ( x ) f(x) f(x)相等的值所构成的一个椭圆。
一开始选择梯度作为初始方向,也就是等势椭圆的切线,下一步,由于取 A A A正交关系, d 1 d_1 d1和 e 1 e_1 e1是同向的,两步就命中结果了。对应到 A A A的空间中,这个椭圆就是个圆。变量是四维的情况,也可以用下图表示:
变量为三维的情况,加上因变量实际上是四个维度的,由于二次型也可以描述能量关系,所以相等能量的各个三维自变量构成的图形在三维就是个椭球体。映射到 A A A的空间中其实就是个标准的球型。每次迭代搜寻的方向向量,都是和过去所有的方向向量 A A A正交的,三维的情况可以看得比较明显,那就是 d 1 T d 0 = 0 , e 1 T d 0 = 0 , e 1 ≠ d 1 d_1^Td_0=0, e_1^Td_0=0, e_1 \ne d_1 d1Td0=0,e1Td0=0,e1̸=d1,也就是方向向量在高维度的情况下,即使和过去的方向向量都 A A A正交,但是也不能说这个方向向量就是当前的错误向量。但是从事实出发,错误向量 e e e随着每次迭代,都减少了各个方向向量的那部分,所以,错误向量 e 0 e_0 e0即,一开始,初始点到极值点的错误向量可以表示为:
(29) e 0 = ∑ j = 0 n − 1 δ j d j e_0=\sum_{j=0}^{n-1}\delta_jd_j \tag{29} e0=j=0∑n−1δjdj(29)
而等式28中又限定了各个方向向量的关系,所以可以:
(30) d k T A e 0 = ∑ δ k d k T A d j = δ k d k T A d k    ⟹    δ k = d k T A e 0 d k T A d k = d k T A ( e 0 + ∑ j = 0 k − 1 α j d j ) d k T A d k = d k T A e k d k T A d k    ⟹    δ k = d k T r k d k T A d k = − α k d_k^TAe_0=\sum \delta_kd_k^TAd_j=\delta_kd_k^TAd_k \\ \implies \delta_k=\frac{d_k^TAe_0}{d_k^TAd_k}=\frac{d_k^TA(e_0 + \sum_{j=0}^{k-1}\alpha_jd_j)}{d_k^TAd_k}=\frac{d_k^TAe_k}{d_k^TAd_k} \\ \implies \delta_k=\frac{d_k^Tr_k}{d_k^TAd_k}=-\alpha_k \tag{30} dkTAe0=∑δkdkTAdj=δkdkTAdk⟹δk=dkTAdkdkTAe0=dkTAdkdkTA(e0+∑j=0k−1αjdj)=dkTAdkdkTAek⟹δk=dkTAdkdkTrk=−αk(30)
所以
(31) e 0 = − ∑ j = 0 n − 1 α j d j    ⟹    e k = e 0 + ∑ j = 0 k − 1 α j d j = − ∑ j = k n − 1 α j d j e_0=-\sum_{j=0}^{n-1}\alpha_jd_j \\ \implies e_k=e_0 + \sum_{j=0}^{k-1}\alpha_jd_j=-\sum_{j=k}^{n-1}\alpha_jd_j \tag{31} e0=−j=0∑n−1αjdj⟹ek=e0+j=0∑k−1αjdj=−j=k∑n−1αjdj(31)
上边的推到也证明,只要我们满足条件
条件1:各个方向向量 d i d_i di和 d j d_j dj之间两两 A A A正交
条件2:通过求导让每一次迭代的步长因子 α \alpha α取得最优
那么每一次迭代求解的过程,其实就是相当于减少了这个方向向量上的误差,每一步的误差向量可以被表示为方向向量的连加的形式,这样只需要迭代 n n n步后就会直接收敛到极值点。这个和我们在几何上边的理解是完全一致的。
只是,我们该如何选择这些方向向量 d k d_k dk呢?
如果仅仅只是随便选择一组线性无关的构造基 ( u 1 , u 2 , . . . u n ) (u_1,u_2,...u_n) (u1,u2,...un),然后如同等式17那样构造方向向量,并满足 A A A正交,那么:
(32) ∀ i > j , d i T A d j = u i T A d j + ∑ k = 0 i − 1 β i k d k T A d j = 0    ⟹    β i j = − u i T A d j d j T A d j \forall i > j, d_i^TAd_j=u_i^TAd_j+\sum_{k=0}^{i-1}\beta_{ik}d_k^TAd_j=0 \\ \implies \beta_{ij}=-\frac{u_i^TAd_j}{d_j^TAd_j} \tag{32} ∀i>j,diTAdj=uiTAdj+k=0∑i−1βikdkTAdj=0⟹βij=−djTAdjuiTAdj(32)
通过这一种方式,也可以得到如何去构造所有的方向向量,只是,任何方向向量 d i d_i di都和过去的 i − 1 i-1 i−1个向量相关,而且每次迭代还需要求解系数,这样就直接导致了计算所需的内存和时间开销巨大,没有实用价值。所以这一组构造基不应该随便选。而应该让等式32得出的各个系数拥有良好的关系,减少计算所需的开销。
事实上,共轭方法,在一开始提出的时候,确实存在实现上的困难,不过通过仔细查看这些关系,我们还没有把梯度向量引入。
在计算过程中,我们始终要得到当前点的梯度,在上边两个条件满足的情况下,观察错误向量,梯度等之间的关系:
(33) ∀ i < j , − d i T A e j = − ∑ j = p n − 1 δ j d i T A d j = − d i T r j    ⟹    d i T r j = 0 \forall i \lt j, -d_i^TAe_j=-\sum_{j=p}^{n-1}\delta_jd_i^TAd_j=-d_i^Tr_j \\ \implies d_i^Tr_j=0 \tag{33} ∀i<j,−diTAej=−j=p∑n−1δjdiTAdj=−diTrj⟹diTrj=0(33)
也就是说,任何迭代后期的梯度 r j r_j rj都是和之前的方向 d i d_i di在当前空间正交的,进一步的
(34) d i T r j = u i T r j + ∑ k = 0 i − 1 β i k d k T r j = 0    ⟹    u i T r j = d i T r j ≠ 0 , j = i    ⟹    u i T r j = d i T r j = 0 , ∀ j > i d_i^Tr_j=u_i^Tr_j+\sum_{k=0}^{i-1}\beta_{ik}d_k^Tr_j=0 \\ \implies u_i^Tr_j=d_i^Tr_j \ne 0, j = i \\ \implies u_i^Tr_j=d_i^Tr_j=0, \forall j \gt i \tag{34} diTrj=uiTrj+k=0∑i−1βikdkTrj=0⟹uiTrj=diTrj̸=0,j=i⟹uiTrj=diTrj=0,∀j>i(34)
结合前边的所有关系,可以得到如下图所示的关系图:
图中所示, u 2 u_2 u2和 d 2 d_2 d2到 r 2 r_2 r2的投影是相等的,所以末端所在的平面和 d 0 d_0 d0以及 d 1 d_1 d1所在的平面共面。通过上边的各个关系可以知道,没有必要取选择别的基 u k {u_k} uk,直接让 u k = r k u_k=r_k uk=rk就是最优的选择,这个时候,各个向量的关系图将会变成如下所示:
这样做的直接结果有:
(35) α k = d k T r k d k T A d k = r k T r k d k T A d k \alpha_k=\frac{d_k^Tr_k}{d_k^TAd_k}=\frac{r_k^Tr_k}{d_k^TAd_k} \tag{35} αk=dkTAdkdkTrk=dkTAdkrkTrk(35)
(36) β i j = − u i T A d j d j T A d j = − r i T A d j d j T A d j , ∀ i > j r i T r j + 1 = r i T ( r j − α j A d j )    ⟹    r i T A d j = 1 α j ( r i T r j − r i T r j + 1 )    ⟹    r i T A d j = 0 , β i j = 0 , ∀ i > j + 1    ⟹    r i T A d j = − 1 α j r i T r i , β i , j + 1 = r i T r i r i − 1 T r i − 1 , i = j + 1 \beta_{ij}=-\frac{u_i^TAd_j}{d_j^TAd_j}=-\frac{r_i^TAd_j}{d_j^TAd_j},\forall i\gt j \\ r_i^Tr_{j+1}=r_i^T(r_j-\alpha_jAd_j) \\ \implies r_i^TAd_j=\frac{1}{\alpha_j}(r_i^Tr_j-r_i^Tr_{j+1}) \\ \implies r_i^TAd_j=0,\beta_{ij}=0,\forall i>j+1 \\ \implies r_i^TAd_j=-\frac{1}{\alpha_j}r_i^Tr_i,\\ \beta_{i,j+1}=\frac{r_{i}^Tr_{i}}{r_{i-1}^Tr_{i-1}},i=j+1 \tag{36} βij=−djTAdjuiTAdj=−djTAdjriTAdj,∀i>jriTrj+1=riT(rj−αjAdj)⟹riTAdj=αj1(riTrj−riTrj+1)⟹riTAdj=0,βij=0,∀i>j+1⟹riTAdj=−αj1riTri,βi,j+1=ri−1Tri−1riTri,i=j+1(36)
综合前边所属,CG的流程可以被表示为:
d 0 = r 0 = b − A x 0 d_0=r_0=b-Ax_0 d0=r0=b−Ax0
for loop until reach max_step or cost_function below threshold:
α k = r k T r k d k T A d k \qquad \alpha_k=\frac{r_k^Tr_k}{d_k^TAd_k} αk=dkTAdkrkTrk
x k + 1 = x k + α k d k \qquad x_{k+1}=x_k+\alpha_kd_k xk+1=xk+αkdk
r k + 1 = r k − α k A d k o r r k + 1 = b − A x k + 1 \qquad r_{k+1}=r_k-\alpha_kAd_k\space or \space r_{k+1}=b-Ax_{k+1} rk+1=rk−αkAdk or rk+1=b−Axk+1
β k + 1 = r k + 1 T r k + 1 r k T r k \qquad \beta_{k+1}=\frac{r_{k+1}^Tr_{k+1}}{r_k^Tr_k} βk+1=rkTrkrk+1Trk+1
d k + 1 = r k + 1 + β k + 1 d k \qquad d_{k+1}=r_{k+1}+\beta_{k+1}d_k dk+1=rk+1+βk+1dk
return x n x_n xn
使用Python代码实现:
import numpy as np
def conjugate_gradient(A, b, x_initial, max_step, threshold=0.00001):
assert(isinstance(A, np.matrix))
assert(isinstance(b, np.matrix))
assert(isinstance(x_initial, np.matrix))
r_old = b - A * x_initial
d = r_old
x = x_initial
for i in range(max_step):
alpha = (r_old.transpose() * r_old) / (d.transpose() * A * d)
x = x + d * alpha
# r_new = b - A * x
r_new = r_old - A * d * alpha
beta = (r_new.transpose() * r_new) / (r_old.transpose() * r_old)
d = r_new + d * beta
r_old = r_new
cf = np.sqrt(np.sum(np.square(b - A * x)))
if cf < threshold:
print("Using step: ", i)
break
return x
if __name__ == '__main__':
N = 200
Ar = np.mat(np.random.rand(N, N))
As = Ar * Ar.transpose()
bn = np.mat(np.random.rand(N, 1))
xi = np.mat(np.random.rand(N, 1))
xr = conjugate_gradient(As, bn, xi, 1000)
print('1000:', np.sqrt(np.sum(np.square(bn - As * xr))))
xr = conjugate_gradient(As, bn, xi, 10000)
print('10000:', np.sqrt(np.sum(np.square(bn - As * xr))))
运行上述程序的一个输出:
Using step: 410
1000: 6.43707958798e-06
Using step: 410
10000: 6.43707958798e-06
大约需要两倍于维度的迭代次数才可以收敛到要求的范围,虽然理论上100维的变量值需要100次迭代,但是实际上各种浮点数运算误差导致不可能实现这样理想化的结果。通过对比会发现,迭代效果要比SD要好。当然了,实际使用的时候,判断损失函数其实没必要通过那样的形式。而且可以几十次迭代后才计算一下等等。
上边的迭代算法,本质上其实还是在求解形如 A x = b Ax=b Ax=b的方程。毕竟最终的结果,都是让 e = A x − b e=Ax-b e=Ax−b尽可能的接近于零。一般情况下,对于 A x = b Ax=b Ax=b的求解,通常直接通过求逆 x = A − 1 b x=A^{-1}b x=A−1b得到,这就存在求矩阵的逆可能不存在等等问题。如果 A A A不是方阵,且 m > > n m \gt \gt n m>>n,那么就是在求解超定方程组,方程组可能没有解,求解 A x = b Ax=b Ax=b的过程就会等效于最小二乘,因为,为了让误差最小,其实就是让最终的的解 A x = b ′ Ax=b^{'} Ax=b′得到的 b ′ b^{'} b′离 b b b最近,那么 b ′ b^{'} b′只能是 b b b到 A A A的列空间的投影,所以它们之间的差和 A T A^T AT的列空间正交,所以有
(37) A T ( A x − b ) = 0    ⟹    x = ( A T A ) − 1 A T b A^T(Ax-b)=0 \implies x = (A^TA)^{-1}A^Tb \tag{37} AT(Ax−b)=0⟹x=(ATA)−1ATb(37)
即使 A A A是非方阵,但是 A T A A^TA ATA却是对称方阵,所以求解逆是可行的,这个时候其实还是转换成了
(38) A T A x = A T b , b ′ = A T b , A ′ = A T A    ⟹    A ′ x = b ′ A^TAx=A^Tb,b^{'}=A^Tb, A^{'}=A^TA \implies A^{'}x=b^{'} \tag{38} ATAx=ATb,b′=ATb,A′=ATA⟹A′x=b′(38)
所以还是可以使用上边的梯度迭代方法来求解。所以可以见得,线性系统问题,即可以表达为求解 A x = b Ax=b Ax=b的系统问题,还是比较多的。
求解的方法,除了直接求逆,以及高斯的LU分解,其它的基本就是迭代方法了。最早的迭代有高斯-赛德尔迭代,SOR等,它们都是首先把 A A A拆分:
(39) A = D + L + U A=D+L+U \tag{39} A=D+L+U(39)
也就是把矩阵拆解成对角,上三角,下三角的形式,对于高斯-赛德尔方法,把 ( D + L + U ) x = b (D+L+U)x=b (D+L+U)x=b变成了:
(40) ( L + D ) x k + 1 = − U x k + b x k + 1 = D − 1 ( b − U x k − L x k + 1 ) (L+D)x_{k+1}=-Ux_k+b \\ x_{k+1}=D^{-1}(b-Ux_k-Lx_{k+1})\tag{40} (L+D)xk+1=−Uxk+bxk+1=D−1(b−Uxk−Lxk+1)(40)
提取成对角,上下三角矩阵的原因,恐怕还是因为逆矩阵好算。上边的过程,每次迭代其实都是循环回代的过程,所以等式40右边有 x k + 1 x_{k+1} xk+1,其实是说要用当前解出来的那些新的变量值的意思。
对于SOR来说,则引入了松弛系数 w w w,迭代过程是
(41) x k + 1 = ( w L + D ) − 1 [ ( 1 − w ) D x k − w U x k ] + w ( D + w L ) − 1 b x_{k+1} =(wL+D)^{-1}[(1-w)Dx_k-wUx_k]+w(D+wL)^{-1}b \tag{41} xk+1=(wL+D)−1[(1−w)Dxk−wUxk]+w(D+wL)−1b(41)
上边的等式其实是用了 w ( D + L + U ) x = w b w(D+L+U)x=wb w(D+L+U)x=wb转换而来。
这些方法都有其收敛条件,在数值优化中有分析。
对于稀疏矩阵,或者是对称正定矩阵来说,还是一般使用本篇总结的梯度迭代方法。只不过值得留意的却是, A x = b Ax=b Ax=b竟然对应于一个二次型的极值求解过程
在数值分析里边,矩阵迭代求解的收敛速度取决于矩阵条件数:
(42) c o n d ( A ) = ∣ ∣ A ∣ ∣ ⋅ ∣ ∣ A ∣ ∣ − 1 cond(A)=||A|| \cdot ||A||^{-1} \tag{42} cond(A)=∣∣A∣∣⋅∣∣A∣∣−1(42)
其中 ∣ ∣ A ∣ ∣ ||A|| ∣∣A∣∣是矩阵范数,数值分析里边研究了矩阵迭代的收敛很大程度上取决于条件数,而预条件方法就是为了减少条件数,快速收敛。详细的分析很复杂,详情可看数值分析教材,这里只阐述用于共轭梯度算法的预条件过程。
预条件是希望找到一个 M M M,将问题转化为求解:
(43) M − 1 A x = M − 1 b M^{-1}Ax=M^{-1}b \tag{43} M−1Ax=M−1b(43)
其中 M M M是 n × n n \times n n×n的可逆矩阵,称为预条件矩阵。在改进的共轭梯度方法中,这个矩阵 M M M是对称正定的。这个矩阵试图对 A A A逆转,从而让 A A A的条件数降低。此外,还引入了一种广义 M M M内积 ( v , w ) M = v T M w (v,w)_M=v^TMw (v,w)M=vTMw来取代欧几里得内积,所有内积默认都改成 M M M内积,原始的共轭梯度方法仍然成立,因为矩阵 M − 1 A M^{-1}A M−1A相对于新的内积仍然是对称正定矩阵:
(44) ( M − 1 A v , w ) M = v T A M − 1 M w = v T A w = v T M M − 1 A w = ( v , M − 1 A w ) M (M^{-1}Av,w)_M=v^TAM^{-1}Mw\\ =v^TAw=v^TMM^{-1}Aw=(v,M^{-1}Aw)_M \tag{44} (M−1Av,w)M=vTAM−1Mw=vTAw=vTMM−1Aw=(v,M−1Aw)M(44)
那么,由于CG的推到基本都是基于 v T A w v^TAw vTAw的形式,如果把等式44的内积结果应用到所有推导的过程,就有:
(45) z k = M − 1 b − M − 1 A x k = M − 1 r k α k = ( z k , z k ) M ( d k , M − 1 A d k ) M x k + 1 = x k + α k d k z k + 1 = z k − α k M − 1 A d k β k = ( z k + 1 , z k + 1 ) M ( z k , z k ) M d k + 1 = z k + 1 + β k d k z_k=M^{-1}b-M^{-1}Ax_k=M^{-1}r_k \\ \alpha_k=\frac{(z_k, z_k)_M}{(d_k, M^{-1}Ad_k)_M} \\ x_{k+1}=x_k+\alpha_kd_k \\ z_{k+1}=z_{k}-\alpha_kM^{-1}Ad_k \\ \beta_k=\frac{(z_{k+1},z_{k+1})_M}{(z_k,z_k)_M} \\ d_{k+1}=z_{k+1}+\beta_kd_k \tag{45} zk=M−1b−M−1Axk=M−1rkαk=(dk,M−1Adk)M(zk,zk)Mxk+1=xk+αkdkzk+1=zk−αkM−1Adkβk=(zk,zk)M(zk+1,zk+1)Mdk+1=zk+1+βkdk(45)
这里边一个有意思的地方在于,这个方法,把 v T M − 1 w v^TM^{-1}w vTM−1w的欧几里得的内积,替换成了 ( v , M − 1 A w ) M (v, M^{-1}Aw)_M (v,M−1Aw)M,定义内积在 M M M的逆空间里边,因为 M M M内积仍然满足普通内积该有的性质,所以可以完全替代欧几里得内积,公式仍然不发生变化。
进一步转换可以得到:
(46) ( z k , z k ) M = z k T M z k = z k T r k ( d k , M − 1 A d k ) M = d k T M M − 1 A d k = d k T A d k ( z k + 1 , z k + 1 ) M = z k + 1 T r k + 1 (z_k,z_k)_M=z_k^TMz_k=z_k^Tr_k \\ (d_k,M^{-1}Ad_k)_M=d_k^TMM^{-1}Ad_k=d_k^TAd_k \\ (z_{k+1},z_{k+1})_M=z_{k+1}^Tr_{k+1} \tag{46} (zk,zk)M=zkTMzk=zkTrk(dk,M−1Adk)M=dkTMM−1Adk=dkTAdk(zk+1,zk+1)M=zk+1Trk+1(46)
对于SSOR(对称连续过松弛)预条件子来说:
(47) M = ( D + w L ) D − 1 ( D + w U ) , w ∈ ( 0 , 2 )    ⟹    M − 1 = ( D + w U ) − 1 D ( D + w L ) − 1 M=(D+wL)D^{-1}(D+wU),w \in (0,2) \\ \implies M^{-1}=(D+wU)^{-1}D(D+wL)^{-1} \tag{47} M=(D+wL)D−1(D+wU),w∈(0,2)⟹M−1=(D+wU)−1D(D+wL)−1(47)
总结上边的过程可以得到,SSOR预条件子的共轭梯度算法的流程是:
r 0 = b − a x 0 , z 0 = M − 1 r 0 , d 0 = z 0 r_0=b-ax_0,z_0=M^{-1}r_0,d_0=z_0 r0=b−ax0,z0=M−1r0,d0=z0
for loop until reach max_step or cost_function below threshold:
α k = z k T r k d k T A d k \qquad \alpha_k=\frac{z_k^Tr_k}{d_k^TAd_k} αk=dkTAdkzkTrk
x k + 1 = x k + α k d k \qquad x_{k+1}=x_k+\alpha_kd_k xk+1=xk+αkdk
r k + 1 = r k − α k A d k \qquad r_{k+1}=r_k - \alpha_kAd_k rk+1=rk−αkAdk
z k + 1 = M − 1 r k + 1 \qquad z_{k+1}=M^{-1}r_{k+1} zk+1=M−1rk+1
β k + 1 = z k + 1 T r k + 1 z k T r k \qquad \beta_{k+1}=\frac{z_{k+1}^Tr_{k+1}}{z_k^Tr_k} βk+1=zkTrkzk+1Trk+1
d k + 1 = z k + 1 + β k + 1 d k \qquad d_{k+1}=z_{k+1}+\beta_{k+1}d_k dk+1=zk+1+βk+1dk
return x n x_n xn
对应的Python代码:
import numpy as np
def get_ssor_precondition_matrix(A, w):
UD = np.triu(A)
LD = np.tril(A)
dim = A.shape[0]
D = np.mat(np.zeros((dim, dim)))
for i in range(dim):
D[i, i] = A[i, i]
for i in range(dim):
for j in range(i+1, dim):
UD[i, j] = w * UD[i, j]
for i in range(dim):
for j in range(0, i):
LD[i, j] = w * LD[i, j]
# 对上下三角矩阵求逆矩阵,其实不必用通用的求逆方法,不停回代即可
return np.mat(np.linalg.inv(UD)) * D * np.mat(np.linalg.inv(LD))
def precondition_conjugate_gradient(A, b, x_initial, max_step,
threshold=0.00001, w=0.2):
assert(isinstance(A, np.matrix))
assert(isinstance(b, np.matrix))
assert(isinstance(x_initial, np.matrix))
r_old = b - A * x_initial
M_inv = get_ssor_precondition_matrix(A, w)
z_old = M_inv * r_old
d = z_old
x = x_initial
for i in range(max_step):
alpha = (z_old.transpose() * r_old) / (d.transpose() * A * d)
x = x + d * alpha
# r_new = b - A * x
r_new = r_old - A * d * alpha
z_new = M_inv * r_new
beta = (z_new.transpose() * r_new) / (z_old.transpose() * r_old)
d = z_new + d * beta
r_old = r_new
z_old = z_new
cf = np.sqrt(np.sum(np.square(b - A * x)))
if cf < threshold:
print("Using step: ", i)
break
return x
if __name__ == '__main__':
N = 200
Ar = np.mat(np.random.rand(N, N))
As = Ar * Ar.transpose()
bn = np.mat(np.random.rand(N, 1))
xi = np.mat(np.random.rand(N, 1))
xr = precondition_conjugate_gradient(As, bn, xi, 1000, 0.00001, 0.05)
print('w=0.05:', np.sqrt(np.sum(np.square(bn - As * xr))))
xr = precondition_conjugate_gradient(As, bn, xi, 1000, 0.00001, 0.5)
print('w=0.5:', np.sqrt(np.sum(np.square(bn - As * xr))))
xr = precondition_conjugate_gradient(As, bn, xi, 1000, 0.00001, 1)
print('w=1:', np.sqrt(np.sum(np.square(bn - As * xr))))
运行三次的结果:
runfile('C:/Users/zczx1/.spyder-py3/temp.py', wdir='C:/Users/zczx1/.spyder-py3')
Using step: 378
w=0.05: 6.71578034331e-06
Using step: 405
w=0.5: 9.67223926338e-06
Using step: 573
w=1: 8.09438315554e-06
runfile('C:/Users/zczx1/.spyder-py3/temp.py', wdir='C:/Users/zczx1/.spyder-py3')
Using step: 371
w=0.05: 6.1508910381e-06
Using step: 401
w=0.5: 8.51261715479e-06
Using step: 602
w=1: 7.57385104633e-06
runfile('C:/Users/zczx1/.spyder-py3/temp.py', wdir='C:/Users/zczx1/.spyder-py3')
Using step: 373
w=0.05: 6.44798434081e-06
Using step: 406
w=0.5: 6.55294163482e-06
Using step: 580
w=1: 8.13783429322e-06
虽然随机生成的矩阵不太能说明问题,但是这个只能说,在松弛系数比较小的时候,PCG和CG相比,相对来说减少了迭代的次数。但是当松弛系数较大的时候,还不如CG。
上边的总结,都是在二次型问题上进行的分析。可以看到,虽然算法本身的实现比较简单,但是算法背后的数学思路如果进行严谨地推导的话,还是有些复杂的,不过因为有了几何的理解,所以也还是比较直观。
但是如果这个问题的表达式函数 f ( x ) f(x) f(x)是非线性的,共轭梯度的思想仍然可以被推广,只是形式上不那么精确。而事实上,就算严格按照上边的算法流程,通过上边的实践也会发现,由于round off误差,其实不能达到理论的计算效果,所以在某种程度上近似求解也是可以的。回顾共轭梯度算法和核心,其实就两个:
d 0 = r 0 = − f ′ ( x 0 ) d_0=r_0=-f^{'}(x_0) d0=r0=−f′(x0)
for loop until max step or f ′ ( x ) < t h r e s h f^{'}(x) \lt thresh f′(x)<thresh:
α k = a r g m i n ( f ( x k + α k d k ) ) \qquad \alpha_k=argmin(f(x_k+\alpha_kd_k)) αk=argmin(f(xk+αkdk))
x k + 1 = x k + α k d k \qquad x_{k+1}=x_k+\alpha_kd_k xk+1=xk+αkdk
r k + 1 = − f ′ ( x k + 1 ) \qquad r_{k+1}=-f^{'}(x_{k+1}) rk+1=−f′(xk+1)
β k + 1 P R = m a x ( 0 , r k + 1 T ( r k + 1 − r k ) r k T r k ) \qquad \beta_{k+1}^{PR}=max(0, \frac{r^T_{k+1}(r_{k+1}-r_{k})}{r_k^Tr_k}) βk+1PR=max(0,rkTrkrk+1T(rk+1−rk))
d k + 1 = r k + 1 + β k + 1 d k \qquad d_{k+1}=r_{k+1}+\beta_{k+1}d_k dk+1=rk+1+βk+1dk
寻求最优的步长因子的过程其实就是广义线搜索,根据泰勒级数展开,有:
(51) f ( x + α d ) ≈ f ( x ) + α [ d d α f ( x + α d ) ] α = 0 + α 2 2 [ d 2 d α 2 f ( x + α d ) ] α = 0 = f ( x ) + α [ f ′ ( x ) ] T d + α 2 2 d T f ′ ′ ( x ) d f(x+\alpha d) \approx f(x)+\alpha [\frac{d}{d\alpha}f(x+\alpha d)]_{\alpha=0}+\frac{\alpha^2}{2}[\frac{d^2}{d\alpha^2}f(x+\alpha d)]_{\alpha=0} \\ = f(x)+\alpha[f^{'}(x)]^Td+\frac{\alpha^2}{2}d^Tf^{''}(x)d \tag{51} f(x+αd)≈f(x)+α[dαdf(x+αd)]α=0+2α2[dα2d2f(x+αd)]α=0=f(x)+α[f′(x)]Td+2α2dTf′′(x)d(51)
(52) d d α f ( x + α d ) ≈ [ f ′ ( x ) ] T d + α d T f ′ ′ ( x ) d = 0    ⟹    α = − f ′ ( x ) T d d T f ′ ′ ( x ) d \frac{d}{d\alpha}f(x+\alpha d) \approx [f^{'}(x)]^Td+\alpha d^Tf^{''}(x)d=0 \\ \implies \alpha=-\frac{f^{'}(x)^Td}{d^Tf^{''}(x)d} \tag{52} dαdf(x+αd)≈[f′(x)]Td+αdTf′′(x)d=0⟹α=−dTf′′(x)df′(x)Td(52)
从等式52中,可以看到二次型中求解最优 α \alpha α的影子,如果是二次型,那么就是 α = r T d d T A d \alpha=\frac{r^Td}{d^TAd} α=dTAdrTd的形式了,不过对于非线性问题来说,就需要计算二阶导数。二阶导数为:
(52) f ′ ′ ( x ) = [ ∂ 2 f ∂ x 1 ∂ x 1 ∂ 2 f ∂ x 1 ∂ x 2 ⋯ ∂ 2 f ∂ x 1 ∂ x n ∂ 2 f ∂ x 2 ∂ x 1 ∂ 2 f ∂ x 2 ∂ x 2 ⋯ ∂ 2 f ∂ x 2 ∂ x n ⋮ ⋱ ∂ 2 f ∂ x n ∂ x 1 ∂ 2 f ∂ x n ∂ x 2 ⋯ ∂ 2 f ∂ x n ∂ x n ] f^{''}(x)= \begin{bmatrix} \\ \frac{\partial^2f}{\partial x_1 \partial x_1} & \frac{\partial^2f}{\partial x_1 \partial x_2} & \cdots & \frac{\partial^2f}{\partial x_1 \partial x_n}\\ \frac{\partial^2f}{\partial x_2 \partial x_1} & \frac{\partial^2f}{\partial x_2 \partial x_2} & \cdots & \frac{\partial^2f}{\partial x_2 \partial x_n}\\ \vdots & & \ddots & \\ \frac{\partial^2f}{\partial x_n \partial x_1} & \frac{\partial^2f}{\partial x_n \partial x_2} & \cdots & \frac{\partial^2f}{\partial x_n \partial x_n}\\ \end{bmatrix} \tag{52} f′′(x)=⎣⎢⎢⎢⎢⎢⎢⎡∂x1∂x1∂2f∂x2∂x1∂2f⋮∂xn∂x1∂2f∂x1∂x2∂2f∂x2∂x2∂2f∂xn∂x2∂2f⋯⋯⋱⋯∂x1∂xn∂2f∂x2∂xn∂2f∂xn∂xn∂2f⎦⎥⎥⎥⎥⎥⎥⎤(52)
其实就是求解Hessian矩阵。这个计算量可谓真的大,而且随着迭代,这个矩阵的具体数值,可能还是需要不断计算的,这个开销几乎是不可忍受的,所以严格的计算步长因子基本是不可取的。何况有些时候,可能都求不出二阶导,也无怪乎实际应用中,直接给个固定步长乘以比例了事。与其算这个矩阵那么复杂,不如多迭代几次。
非线性CG需要对函数进行求导,而求导的方法,目前有:
本文总结了本人学习EDA软件中布局算法中使用到的共轭梯度相关的内容。共轭梯度算法,应用到实际工程当中,可能还是使用非线性的部分内容,只是由于也是近似的求解,所以和随机梯度下降相比也没有太多的优势,毕竟都是和初始点相关,所以引入更多的随机性,也许可以取得更好的效果!
1. An Introduction to the Conjugate Gradient Method Without the Agonizing Pain
2. Numerical Analysis
@fsfzp888
2019 年 01月