最速下降法与梯度法的区别

文章目录

    • 步长(也叫做学习率)
    • 方向
    • 梯度下降法在机器学习中的应用
    • 参考

这篇文章主要记录了最速下降法与梯度法的区别。2者的区别一个是步长,一个是方向。在步长这一块,个人理解,梯度下降的话,我们要手动设计参数,学习率。最速的话是通过精确直线搜索之类搜出的学习率。在方向这一块我不是太懂。梯度下降法仅考虑了泰勒一阶展开,最速下降法考虑到了二阶展开,所以对原函数空间具有更加的拟合效果,所以其效果更好。

步长(也叫做学习率)

梯度下降法,我们需要预先设定步长α。
最速下降法与梯度法的区别_第1张图片

方向

可能觉得最速下降的方向和梯度下降法的方向并没有差别,都是移动单位步长,下降最多的方向。而差别就在单位步长这里,如果![△nsd=argminv(∇f(x)Tv∣∥v∥<=1)中∥v∥](https://img-blog.csdnimg.cn/84ffa11f107d471facfff8def8332179.png)中的![在这里插入图片描述](https://img-blog.csdnimg.cn/dcda3101ec384275a8baab230c4400a7.png)是欧式范数,那么最速下降法就是梯度下降法,也就是说梯度下降法是最速下降法使用欧式范数的特殊情况。

梯度下降法在机器学习中的应用

在机器学习中,我们通常会有一个损失函数L(β),其中向量β=(β0,β1,⋯,βn)是模型中的参数,我们需要找到最优的β来最小化损失函数L(β)。所以说,模型的训练过程也就是寻找最优解的过程。

参考

梯度下降法和最速下降法的细微差别
【最优化】一文搞懂最速下降法

你可能感兴趣的:(深度学习,机器学习,深度学习,python)