机器学习的基础算法--牛顿法

牛顿法是一种在实数域和复数域上近似求解方程的方法。方法使用函数(x)的泰勒级数的前面几项来寻找方程(x) = 0的根。牛顿法最大的特点就在于它的收敛速度很快。

把非线性函数  在  处展开成泰勒级数,取其线性部分,作为非线性方程的近似方程, 则有 

设  ,则其解为 

因为这是利用泰勒公式的一阶展开,  ,这里并不是完全相等,而是近似相等,即去掉泰勒级数2级以上的项,这里求得的  并不能让  ,只能说  的值比  更接近  ,于是乎,迭代求解的想法就很自然了,再把f(x)在x1 处展开为泰勒级数,取其线性部分为  的近似方程,若  ,则得  如此继续下去,得到牛顿法的迭代公式:

  ,通过迭代,这个式子必然在  的时候收敛。上述过程可以用一张动图来体现:

那么牛顿法对比于梯度下降有什么优势了?不难发现牛顿法是二阶收敛,收敛速度明显要高于梯度下降法。举个很简单的例子,梯度下降是考虑下山的坡度最陡,而牛顿法则是不仅要考虑下坡陡,还要考虑下坡变化的速率更快。

牛顿法主要可以解决两个问题,第一个是求根问题,比如一个一元五次方程的根,我们用代数的方法是求不出解的(阿贝尔和伽罗瓦的工作证明了一般一元五次方程没有根式解),而我们可以用牛顿法通过计算机来逼近对应的根;另外一个问题就是最优化的问题,这也是机器学习中和梯度下降法使用频率相当的一种优化算法。这里有几个常用的矩阵,是针对多元函数的问题,即雅克比矩阵和海森矩阵。简单介绍一下二者,雅克比矩阵为函数对各自变量的一阶导数,海森矩阵为函数对自变量的二次微分。形式分别如下:

机器学习的基础算法--牛顿法_第1张图片

机器学习的基础算法--牛顿法_第2张图片

要想实现多元函数的优化问题,必须使用这两个矩阵进行计算。

牛顿法利用计算机实现的整体思路:

求解最优化问题,一般是求解极大值或者极小值的问题,即目标函数导数求零点的问题,f' = 0;

把f(x)用泰勒公式展开到二阶,即:

等号左边和f(x)近似相等,抵消。然后对求导,得到:

                                                                          

更进一步:

机器学习的基础算法--牛顿法_第3张图片                                                                                

然后得到迭代式子:

推广到多元函数,应用雅克比矩阵和海森矩阵,则有:

1、先决条件

暂无先决条件。

2、算法参数的初始化

这里我们需要初始化一些变量,比如epsilon(阈值),迭代次数N,变量初始值x0,y0……

3、算法的过程:这一步很重要,这里是变量更新的重要步骤;

1、确定对应的目标函数,并对目标函数进行优化,求解最有解,f(x0,x1,......)

2、对目标函数分别求解一阶偏导数和二阶偏导数,分别构建雅克比矩阵和海森矩阵,并用海森矩阵的逆左乘,雅克比矩阵右乘变量,即得到变化度量值。

3、确定迭代次数和变化度量值小于阈值epsilon,此时算法终止,而变量也会停止更新,形成最优参数,否则,进入步骤4.

以下是用python实现二元函数求解最优化值的code;

import numpy as np
def newton_method(x0,y0,N,E):
	X1,X2,Y,Y_d=[],[],[],[]#X1,X2为二元函数的两个特征,Y为标签,Y_d为
	n=1#迭代次数记录
	X1.append(x0)
	X2.append(y0)
	Y.append(f(x0,y0))#算法过程第一步,确定目标函数f(x0,y0),对它进行参数优化
	ee=g(x0,y0)#初始化阈值
	e=(ee[0,0]**2+ee[1,0]**2)**0.5#二元函数求解的一阶导数为一个2*1维的雅克比矩阵,一种刻画变化的函数
	#算法迭代过程
	while nE:
		n+=1
		#迭代两个变量
		X=-np.dot(np.linalg.inv(G(x0,y0)),g(x0,y0))
		x0+=X[0,0]
		y0+=X[1,0]
		ee=g(x0,y0)
		e=(ee[0,0]**2+ee[1,0]**2)**0.5#更新阈值
		print(n)
	print (x0,y0,N,E)
f=lambda x,y:3*x**2+3*y**2-x**2*y#声明目标函数
g=lambda x,y:np.array([[6*x-2*x*y],[6*y-x**2]])#构建目标函数的雅克比矩阵
G=lambda x,y:np.array([[6-2*y,-2*x],[-2*x,6]])#构建目标函数的海森矩阵
x0,y0,N,E=-2,4,10,10**(-6)
newton_method(x0,y0,N,E)

out:

2
3
4
5
6
-4.242640687119334 3.0000000000000355 10 1e-06

在这里我还没有弄懂变化度量的取值,这也是仿照网络上某位大神的code写的,主要为了校核一下算法是否正确,好吧,这是目前我碰到最难的算法,不借助numpy包,我都不知道该怎么求海森矩阵的逆。

你可能感兴趣的:(机器学习)