DoglegMethod——“狗腿”算法(下)

好吧,楼主经过努力的调试找BUG,终于可以给大家写这个下篇了,为了验证Dogleg算法对于一般的函数也管用,楼主把优化的函数换成了


y = (x1-1)*(x1-2)*(x1-3)*(x1-4) + (x2-1)*(x2-2)*(x2-3)*(x2-4);


然后,很神奇,不论我怎么调试,结果都是很差很差,而且算法定的方向是原理最小值点的,这让我非常的困惑。


经过不断地调试和思考以及查看

………………

………………

………………

终于……


特么的我发现原来是我梯度函数的+号写成了*号!


由此告诫诸位,如果结果跟预想差太多……应该就是……代码细节写错了= =!~!


Dogleg算法的收敛速度还是极好的,对于这个函数从[1000,1000]这个量级的点开始搜索只需要迭代20步左右!就可以找到极小值。

你可能感兴趣的:(DoglegMethod——“狗腿”算法(下))