梯度下降⽅法介绍

1 详解梯度下降算法

1.1梯度下降的相关概念复习

相关概念

  • 步⻓(Learning rate):
    • 步⻓决定了在梯度下降迭代的过程中,每⼀步沿梯度负⽅向前进的⻓度。⽤前⾯下⼭的例⼦,步⻓就是在当前 这⼀步所在位置沿着最陡峭最易下⼭的位置⾛的那⼀步的⻓度。
  • 特征(feature):
    • 指的是样本中输⼊部分,⽐如2个单特征的样本(x(0), y(0)),(x(1), y(1)),则第⼀个样本特征为x(0),第⼀个样本输 出为y(0)。
  • 假设函数(hypothesis function):
    • 在监督学习中,为了拟合输⼊样本,⽽使⽤的假设函数,记为hθ(x)。⽐如对于单个特征的m个样本 (x(i), y(i))(i = 1, 2, …m),可以采⽤拟合函数如下: hθ(x) = θ0 + θ1x。
  • 损失函数(loss function):
    • 为了评估模型拟合的好坏,通常⽤损失函数来度量拟合的程度。损失函数极⼩化,意味着拟合程度最好,对应 的模型参数即为最优参数。
    • 在线性回归中,损失函数通常为样本输出和假设函数的差取平⽅。⽐如对于m个样本(xi, yi)(i = 1, 2, …m),采 ⽤线性回归,损失函数为:
      梯度下降⽅法介绍_第1张图片

其中xi表示第i个样本特征,yi表示第i个样本对应的输出,hθ(xi)为假设函数。

1.2 梯度下降法的推导流程

  1. 先决条件: 确认优化模型的假设函数和损失函数。
    梯度下降⽅法介绍_第2张图片

  2. 算法相关参数初始化

  3. 算法过程:
    3.1) 确定当前位置的损失函数的梯度,对于θi,其梯度表达式如下:
    在这里插入图片描述
    3.2) ⽤步⻓乘以损失函数的梯度,得到当前位置下降的距离,即
    在这里插入图片描述
    对应于前⾯登⼭例⼦中的某⼀步。
    3.3) 确定是否所有的θi,梯度下降的距离都⼩于ε,如果⼩于ε则算法终⽌,当前所有的θi(i = 0, 1, …n)即为最终结果。否 则进⼊步骤4.

  4. 更新所有的θ ,对于θi,其更新表达式如下。更新完毕后继续转⼊步骤1.
    在这里插入图片描述
    下⾯⽤线性回归的例⼦来具体描述梯度下降。假设我们的样本是:
    在这里插入图片描述
    损失函数如前⾯先决条件所述:
    在这里插入图片描述
    则在算法过程步骤1中对于θ 的偏导数计算如下:
    在这里插入图片描述
    由于样本中没有x 上式中令所有的x 为1.
    步骤4中θ 的更新表达式如下:
    在这里插入图片描述
    在这里插入图片描述

2 梯度下降法⼤家族

常⻅的梯度下降算法有:

  • 全梯度下降算法(Full gradient descent),
  • 随机梯度下降算法(Stochastic gradient descent),
  • ⼩批量梯度下降算法(Mini-batch gradient descent),
  • 随机平均梯度下降算法(Stochastic average gradient descent)

它们都是为了正确地调节权重向量,通过为每个权重计算⼀个梯度,从⽽更新权值,使⽬标函数尽可能最⼩化。其差别 在于样本的使⽤⽅式不同。

2.1 全梯度下降算法(FG)

批量梯度下降法,是梯度下降法最常⽤的形式,具体做法也就是在更新参数时使⽤所有的样本来进⾏更新。 计算训练集所有样本误差,对其求和再取平均值作为⽬标函数
权重向量沿其梯度相反的⽅向移动,从⽽使当前⽬标函数减少得最多。
其是在整个训练数据集上计算损失函数关于参数θ 的梯度:
在这里插入图片描述

由于我们有m个样本,这⾥求梯度的时候就⽤了所有m个样本的梯度数据。

注意:

  • 因为在执⾏每次更新时,我们需要在整个数据集上计算所有的梯度,所以批梯度下降法的速度会很慢,同时,批梯 度下降法⽆法处理超出内存容量限制的数据集。
  • 批梯度下降法同样也不能在线更新模型,即在运⾏的过程中,不能增加新的样本

2.2 随机梯度下降算法(SG)

由于FG每迭代更新⼀次权重都需要计算所有样本误差,⽽实际问题中经常有上亿的训练样本,故效率偏低,且容易陷 ⼊局部最优解,因此提出了随机梯度下降算法。
其每轮计算的⽬标函数不再是全体样本误差,⽽仅是单个样本误差,即每次只代⼊计算⼀个样本⽬标函数的梯度来更新 权重,再取下⼀个样本重复此过程,直到损失函数值停⽌下降或损失函数值⼩于某个可以容忍的阈值
此过程简单,⾼效,通常可以较好地避免更新迭代收敛到局部最优解。其迭代形式为
在这里插入图片描述
但是由于,SG每次只使⽤⼀个样本迭代,若遇上噪声则容易陷⼊局部最优解。

2.3 ⼩批量梯度下降算法(mini-batch)

⼩批量梯度下降算法是FG和SG的折中⽅案,在⼀定程度上兼顾了以上两种⽅法的优点。
每次从训练样本集上随机抽取⼀个⼩样本集,在抽出来的⼩样本集上采⽤FG迭代更新权重。
被抽出的⼩样本集所含样本点的个数称为batch_size,通常设置为2的幂次⽅,更有利于GPU加速处理。 特别的,若batch_size=1,则变成了SG;若batch_size=n,则变成了FG.其迭代形式为
在这里插入图片描述

上式中,也就是我们从m个样本中,选择x个样本进⾏迭代(1

2.4 随机平均梯度下降算法(SAG)

在SG⽅法中,虽然避开了运算成本⼤的问题,但对于⼤数据训练⽽⾔,SG效果常不尽如⼈意,因为每⼀轮梯度更新都 完全与上⼀轮的数据和梯度⽆关。
随机平均梯度算法克服了这个问题,在内存中为每⼀个样本都维护⼀个旧的梯度,随机选择第i个样本来更新此样本的 梯度,其他样本的梯度保持不变,然后求得所有梯度的平均值,进⽽更新了参数。
如此,每⼀轮更新仅需计算⼀个样本的梯度,计算成本等同于SG,但收敛速度快得多。
其迭代形式为
在这里插入图片描述

  • 我们知道sgd是当前权重减去步⻓乘以梯度,得到新的权重。sag中的a,就是平均的意思,具体说,就是在第k步 迭代的时候,我考虑的这⼀步和前⾯n-1个梯度的平均值,当前权重减去步⻓乘以最近n个梯度的平均值。
  • n是⾃⼰设置的,当n=1的时候,就是普通的sgd。
  • 这个想法⾮常的简单,在随机中⼜增加了确定性,类似于mini-batch sgd的作⽤,但不同的是,sag⼜没有去计算更 多的样本,只是利⽤了之前计算出来的梯度,所以每次迭代的计算成本远⼩于mini-batch sgd,和sgd相当。效果⽽ ⾔,sag相对于sgd,收敛速度快了很多。这⼀点下⾯的论⽂中有具体的描述和证明

梯度下降⽅法介绍_第3张图片

3.线性回归api再介绍

你可能感兴趣的:(机器学习,机器学习,深度学习,逻辑回归)