深入浅出最优化(4) 拟牛顿法

1 拟牛顿法的数学基础

对于牛顿法,我们保留其快速收敛性,同时克服牛顿法黑森矩阵需要正定的问题以及避免计算黑森矩阵以减少计算量,我们提出了拟牛顿法。

假定当前点为,若我们用已得到的及其一阶导数信息,构造一个正定矩阵作为的近似。这样根据牛顿法下降方向的产生公式,近似可以得到。设,则可以得到。

的得出是很理想的,我们希望它能根据已得到的及其一阶导数信息用纯迭代的方法得到,而避免黑森矩阵的计算。但想要求得这样的,首先要知道什么样的可以作为的近似矩阵。这个限制条件是保证与满足梯度的割线方程。我们知道目标函数梯度函数上两点间的割线方程为,那么作为近似的也必须使得这个方程成立,即。

记,,则有拟牛顿方程第二拟牛顿方程

2 的计算方法

2.1 BFGS修正公式

给定初始正定矩阵,之后有,假设是秩为2的矩阵,则根据矩阵分解有,其中是任意常数,是任意向量,则,代入拟牛顿方程得到。不妨设,则。得到BFGS修正公式:

这个公式可以保证每步产生的的正定。(证明见附录1)

2.2 DFP修正公式

,又根据第二拟牛顿方程,和BFGS公式使用同样方法推导可得:

3 拟牛顿法的步骤

  1. 给定初始点,或,精度,令
  2. 若满足终止准则,则得解,算法终止
  3. 解线性方程组,得解,或计算
  4. 由线性搜索计算步长,令
  5. 用修正公式得到或,使其满足拟牛顿方程,,转2

4 性能评估

  • 收敛性:因为保证了正定,则根据古典牛顿法的条件,每一步均会产生下降方向,所以满足收敛性
  • 收敛速度:若在最优解处梯度为0、黑森矩阵正定,则当且仅当时,算法超线性收敛。(证明见附录2)
  • 二次终止性:显然满足,而且因为无需步长搜索,每步步长为1,对于二次函数可以一次取到最优解
  • 计算量:小,只需计算两点梯度即可
  • 储存空间:大,对于n元目标函数,需要储存一个大小为n*n的矩阵

5 实战测试

对于本文集的第一篇文章[深入浅出最优化(1) 最优化问题概念与基本知识]中提出的最小二乘问题,的初值均在的范围内随机生成,总共生成100组起点。统计迭代成功(在1000步内得到最优解且单次步长搜索迭代次数不超过1000次)的样本的平均迭代步数、平均迭代时间和得到的最优解及残差平方和最小值。

BFGS:

平均迭代步数 平均迭代时间 最优解 残差平方和最小值
18.1 0.28s

DFP:

平均迭代步数 平均迭代时间 最优解 残差平方和最小值
102.05 1.86s

代码实现

本博客所有代码在https://github.com/HarmoniaLeo/optimization-in-a-nutshell开源,如果帮助到你,请点个star,谢谢这对我真的很重要!

你可以在上面的GitHub链接或本文集的第一篇文章深入浅出最优化(1) 最优化问题概念与基本知识中找到Function.py和lagb.py

BFGS:

import numpy as np
from Function import Function   #定义法求导工具
from lagb import *  #线性代数工具库
from scipy import linalg

n=2 #x的长度

def myFunc(x):  #x是一个包含所有参数的列表
    return x[0]**2 + 2*x[1]**2 + 2*x[0] - 6*x[1] +1 #目标方程

k=0
x=np.zeros(n)   #初始值点
e=0.001
sigma=0.4
rho=0.55
beta=1
tar=Function(myFunc)
B=np.array(np.eye(n))
while tar.norm(x)>e:
    a=1
    d=-np.linalg.solve(B,tar.grad(x))
    if not (tar.value(x+a*d)<=tar.value(x)+rho*a*dot(turn(tar.grad(x)),d) and \
        dot(turn(tar.grad(x+a*d)),d)>=sigma*dot(turn(tar.grad(x)),d)):
        a=beta
        while tar.value(x+a*d)>tar.value(x)+rho*a*dot(turn(tar.grad(x)),d):
            a*=rho
        while dot(turn(tar.grad(x+a*d)),d)tar.value(x)+rho*(a+da)*dot(turn(tar.grad(x)),d):
                da*=rho
            a+=da
    x1=x+a*d
    if tar.norm(x1)

DFP:

import numpy as np
from Function import Function   #定义法求导工具
from lagb import *  #线性代数工具库
from scipy import linalg

n=2 #x的长度

def myFunc(x):  #x是一个包含所有参数的列表
    return x[0]**2 + 2*x[1]**2 + 2*x[0] - 6*x[1] +1 #目标方程

k=0
x=np.zeros(n)   #初始值点
e=0.001
sigma=0.4
rho=0.55
beta=1
tar=Function(myFunc)
H=np.array(np.eye(n))
while tar.norm(x)>e:
    a=1
    d=-dot(H,tar.grad(x))
    if not (tar.value(x+a*d)<=tar.value(x)+rho*a*dot(turn(tar.grad(x)),d) and \
        dot(turn(tar.grad(x+a*d)),d)>=sigma*dot(turn(tar.grad(x)),d)):
        a=beta
        while tar.value(x+a*d)>tar.value(x)+rho*a*dot(turn(tar.grad(x)),d):
            a*=rho
        while dot(turn(tar.grad(x+a*d)),d)tar.value(x)+rho*(a+da)*dot(turn(tar.grad(x)),d):
                da*=rho
            a+=da
    x1=x+a*d
    if tar.norm(x1)

附录

  1. 在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述
  2. 拟牛顿法收敛速度证明:


    在这里插入图片描述

    在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

你可能感兴趣的:(深入浅出最优化(4) 拟牛顿法)