最优化算法总结

本文为SIGAI 2018/8/22最优化算法总结的直播笔记。

目录

总结图片:

1、精确求解(公式求解)

2 数值优化算法

2.1 梯度下降法

2.1.1 动量项

2.1.2 自适应学习率法

         AdaGrad

         RMSProp

         AdaDelta

         Adam

         随机梯度下降

2.2 牛顿法

3 分治法

3.1 坐标下降法

3.2 SMO算法

3.3 分阶段优化法


总结图片:

最优化算法总结_第1张图片

1、精确求解(公式求解)

一共分为三种:费马定理→拉格朗日乘数法→KKT条件

最优化算法总结_第2张图片

2 数值优化算法

最优化算法总结_第3张图片

2.1 梯度下降法

最优化算法总结_第4张图片

有两种调整方法——加入动量项自适应学习率法

2.1.1 动量项

最优化算法总结_第5张图片

动量项展开后(累计了之前所有的梯度):

最优化算法总结_第6张图片

2.1.2 自适应学习率法

AdaGrad

最优化算法总结_第7张图片

RMSProp

最优化算法总结_第8张图片

AdaDelta

前两种方法还都用了人工的学习率α,替换掉了人工学习率α后:

最优化算法总结_第9张图片

Adam

最优化算法总结_第10张图片

随机梯度下降

最优化算法总结_第11张图片

2.2 牛顿法

最优化算法总结_第12张图片

3 分治法

将一个大问题分解成子问题求解,最后将子问题拼接起来

3.1 坐标下降法

最优化算法总结_第13张图片

3.2 SMO算法

(下图中C是惩罚因子)

最优化算法总结_第14张图片

3.3 分阶段优化法

最优化算法总结_第15张图片

上图中:先固定β,优化f;再固定f,优化β

最优化算法总结_第16张图片

你可能感兴趣的:(深度学习)