DoglegMethod——“狗腿”算法(中)

这周上完最优化算法,又跑去问了问老师Dogleg算法上的疑问,应该说是解决了上篇日志《DoglegMethod——“狗腿”算法(上)》的疑问,也纠正了我对于信赖域方法的一些错误的看法。


DoglegMethod——“狗腿”算法(上)的算法是错误的,因为对信赖域方法的理解就有问题,虽然我觉得那个算法也是合理的,也是可以做最优解搜索的,a*=0.995其实就是做一个信赖域的收缩,但不是跟Dogleg一致的,下面给出Dogleg的真正算法,Dogleg是信赖域章节的算法,所以对于信赖域的更新部分肯定少不了。(仅仅修改Dogleg.m中while循环的部分,也就是迭代部分)

while iter < maxiter
    rey = [rey, f(x)];
    rex1 = [rex1, x(1)];
    rex2 = [rex2, x(2)];
    if sum(abs(g(x))) < 0.00001
        break;
    end
    iter = iter + 1;
    du = -g(x)' * g(x) * g(x) / (g(x)' * B(x) * g(x));
    dB = -B(x)^-1 * g(x);
    a = 2;
    if du'*du > trustRegionBound*trustRegionBound;
        a = trustRegionBound / sqrt((du'*du));
    else if dB'*dB > trustRegionBound*trustRegionBound
        a = sqrt((trustRegionBound*trustRegionBound - du'*du) / ((dB-du)'*(dB-du))) + 1;
        end    
    end
    if a < 1
        d = a * du;
    else
        d = du + (a - 1) * (dB - du);
    end
    %更新信赖域
    p = (f(x)-f(x+d))/(q(x,zeros(2,1))-q(x,d));
    if p > 0.75 && sqrt(abs(d'*d) - trustRegionBound) < 0.001
        trustRegionBound = min(2 * trustRegionBound, 10000);
    else if p < 0.25
            trustRegionBound = sqrt(abs(d'*d)) * 0.25;
        end
    end
    if p > 0
        x = x + d;
    end
end
大家可以参考袁亚湘老师的《最优化理论与方法》,里面讲的很清楚,不得不感叹老书写的就是好。


但是这个算法我觉得还是有很多问题的,之后我会在(下)篇中介绍我发现的问题,或者说是我程序的问题。


你可能感兴趣的:(DoglegMethod——“狗腿”算法(中))