求解无约束优化的方法主要有直接搜索法(search method)和梯度法(gradient method).
直接搜索法适合目标函数高度非线性,没有导数或者导数很难计算的情况,直接搜索方法包括单纯形法,Hooke-Jeeves搜索法,Pavell共轭方向法等.
梯度法在可以得到导数信息的情况下是一种更优的方法,该方法利用一阶导数和Hessian矩阵的信息,可以得到更快的收敛速度。常用的梯度法包括最速下降法,Newton法,Marquart法,共轭梯度法和拟牛顿法(Quasi-Newton method).
fminunc
函数中的参数options.LargeScale
设置为off
,该算法采用基于二次和三次混合插值的一维搜索算法的BFGS拟牛顿法options.LineSearchType
设置为quadcubic
时,采用二次和三次混合插值法,options.LineSearchType
设置为cubicpoly
时,将采用三次插值法source
:Matlab优化算法 Page 186
令 x i x_i xi表示第 i i i所使用的资金,总收益为 T T T,目标函数为
max T = x 1 + x 2 + x 3 + x 4 \max T=\sqrt{x_1}+\sqrt{x_2}+\sqrt{x_3}+\sqrt{x_4} maxT=x1+x2+x3+x4
约束条件为
{ x 1 ≤ 400 1.1 x 1 + x 2 ≤ 440 1.21 x 1 + 1.1 x 2 + x 3 ≤ 484 1.331 x 1 + 1.21 x 2 + 1.1 x 3 + x 4 ≤ 532.4 x i ≥ 0 \begin{cases} x_1\leq 400\\ 1.1x_1+x_2\leq 440\\ 1.21x_1+1.1x_2+x_3\leq 484\\ 1.331x_1+1.21x_2+1.1x_3+x_4\leq 532.4\\ x_i\geq 0 \end{cases} ⎩⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎧x1≤4001.1x1+x2≤4401.21x1+1.1x2+x3≤4841.331x1+1.21x2+1.1x3+x4≤532.4xi≥0
clear all;
clc;
A = [1.1, 1, 0, 0; 1.21, 1.1, 1, 0; 1.331, 1.21, 1.1, 1];
b = [440, 484, 532.4];
lb = [0, 0, 0, 0];
ub = [400, 1000, 1000, 1000];
x0 = [100, 100, 100, 100]; % set initial point
[x, fval] = fmincon('obj_642', x0, A, b, [], [], lb, ub);
disp(x);
disp(fval);
source
:Matlab优化算法 Page 189
clear all;
clc;
lb = [0, 0];
x0 = [0, 0];
[x, w] = fmincon('obj_643', x0, [], [], [], [], lb, [], 'cons');
disp(x);
disp(w);
数值迭代的基本思想是从一个初始点 X ( 0 ) X^{(0)} X(0)出发,在可行方向 d ( 0 ) d^{(0)} d(0)搜索,确定最佳步长 α 0 \alpha_0 α0,使得函数沿着 d ⃗ ( 0 ) \vec{d}^{(0)} d(0)下降最大
X ( k + 1 ) = X ( k ) + α k d ⃗ ( 0 ) ( k ) (1) X^{(k+1)}=X^{(k)}+\alpha_k\vec{d}^{(0)(k)}\tag{1} X(k+1)=X(k)+αkd(0)(k)(1)
该方法适合在已知极值区间的基础上,不断缩小区间找到极值,要求目标函数为单峰,算法步骤如下:
该类问题可以使用直接法求解,不需要计算导数,只需要计算函数值。
轴向移动的目标是找到有利的下降方向,而模式移动的目标是沿着有利下降方向加速移动,可以使用patternsearch
函数调用。
clear all;
clc;
x0 = [0, 0];
x = patternsearch(@psobj, x0);
disp(x);
单纯形法是从一个可行解出发,不断找到可以改进目标值的基本可行解,达到最优基本可行解。
该方法的本质是共轭方向法,Powell
法将整个计算过程分解为若干阶段,在每个阶段由 n + 1 n+1 n+1次一维搜索组成,首先沿着已知的 n n n个方向进行搜索,找到一个最好点,然后沿着本阶段的初始点与该最好点连线方向进行搜索,定位出本阶段的最好点。根据得到的最好方向进行下一阶段的迭代。
将 n n n维问题转化维一系列负梯度方向使用一维搜索方法寻优。
由方程 ( 1 ) (1) (1),设置方向为负梯度方向
d ⃗ ( k ) = − ∇ f ( x ( k ) ) ∥ ∇ f ( x ( k ) ) ∥ \vec{d}^{(k)}=-\frac{\nabla f(x^{(k)})}{\lVert\nabla f(x^{(k)})\rVert} d(k)=−∥∇f(x(k))∥∇f(x(k))
最速方向的迭代公式为
X ( k + 1 ) = X ( k ) − α k ∇ f ( X ( k ) ) ∥ f ( X ( k ) ) ∥ X^{(k+1)}=X^{(k)}-\alpha_k\frac{\nabla f(X^{(k)})}{\lVert f(X^{(k)})\rVert} X(k+1)=X(k)−αk∥f(X(k))∥∇f(X(k))
在第 k k k次迭代初始点 X ( k ) X^{(k)} X(k)和搜索方向 d ⃗ ( k ) \vec{d}^{(k)} d(k)确定时,原始目标函数为关于步长 α \alpha α的一维函数
φ ( α ) = f ( x ( k ) + α S ( k ) ) \varphi(\alpha)=f(x^{(k)}+\alpha S^{(k)}) φ(α)=f(x(k)+αS(k))
在可导的情况下,可以得到
{ φ ( α ) = [ ∇ f ( x ( k ) + α d ⃗ ( k ) ) ] T ∇ f ( x ( k ) ) = 0 [ ∇ f ( x ( k + 1 ) ) ] T ∇ f ( x ( k ) ) = 0 [ d ⃗ ( k + 1 ) ] T d ⃗ ( k ) = 0 \begin{cases} \varphi(\alpha)=[\nabla f(x^{(k)}+\alpha \vec{d}^{(k)})]^T\nabla f(x^{(k)})=0\\ [\nabla f(x^{(k+1)})]^T\nabla f(x^{(k)})=0\\ [\vec{d}^{(k+1)}]^T\vec{d}^{(k)}=0 \end{cases} ⎩⎪⎨⎪⎧φ(α)=[∇f(x(k)+αd(k))]T∇f(x(k))=0[∇f(x(k+1))]T∇f(x(k))=0[d(k+1)]Td(k)=0
可以发现,连续两次搜索方向互相正交,形成Z形状的搜索路径。
最速下降法在越接近极值点的区域的搜索效率越差,因此采用近似的思想对最速下降法进行改进,根据目标函数在极值点附近可以近似于一个二次函数,希望进行一次迭代达到极值点 x ∗ x^* x∗
x ∗ = x ( 1 ) + α d ⃗ ( 1 ) x^*=x^{(1)}+\alpha\vec{d}^{(1)} x∗=x(1)+αd(1)
对 f ( x ) f(x) f(x)进行Taylor Expansions
f ( x ) = 1 2 x T G x + B T x + C f(x)=\frac{1}{2}x^TGx+B^Tx+C f(x)=21xTGx+BTx+C
在 x ( 1 ) x^{(1)} x(1)的梯度为
∇ f ( x ( 1 ) ) = G x ( 1 ) + B \nabla f(x^{(1)})=Gx^{(1)}+B ∇f(x(1))=Gx(1)+B
在极值点 x ∗ x^* x∗,满足必要条件,代入得到
∇ f ( x ∗ ) = G [ x ( 1 ) + α 1 d ⃗ ( 1 ) ] + B = ∇ f ( x ( 1 ) ) + α 1 G d ⃗ ( 1 ) = 0 \nabla f(x^*)=G[x^{(1)}+\alpha_1\vec{d}^{(1)}]+B=\nabla f(x^{(1)})+\alpha_1G\vec{d}^{(1)}=0 ∇f(x∗)=G[x(1)+α1d(1)]+B=∇f(x(1))+α1Gd(1)=0
等式两侧同时乘以 [ d ⃗ ( 0 ) ] T [\vec{d}^{(0)}]^T [d(0)]T,可以得到
[ d ⃗ ( 0 ) ] T G d ⃗ ( 1 ) = 0 [\vec{d}^{(0)}]^TG\vec{d}^{(1)}=0 [d(0)]TGd(1)=0
向量 d ⃗ ( 0 ) \vec{d}^{(0)} d(0)和 d ⃗ ( 1 ) \vec{d}^{(1)} d(1)成为 G G G的共轭方向。
拟牛顿法是利用目标函数 f f f和一阶导数 g g g的信息,构造出目标函数的曲率近似