关于权重衰退和丢弃法

文章目录

  • 权重衰退
  • 丢弃法

本文是李沐老师和王木头老师视频的学习笔记

权重衰退

一般模型的参数越多那么模型的容量就越大(模型能对数据拟合的程度),为了防止模型过拟合有时我们需要降低模型的容量,比如通过限制参数值的范围来到达缩小模型容量的目的。
m i n    l ( w , b ) s u b j e c t    t o ∣ ∣ w ∣ ∣ 2 ≤ θ min\; \mathscr{l}(w,b) \quad subject\; to \quad ||w||^2 \leq \theta minl(w,b)subjectto∣∣w2θ

θ \theta θ越小正则项越小


这是一个约束条件为 ∣ ∣ w ∣ ∣ 2 ≤ θ ||w||^2\leq \theta ∣∣w2θ的条件极值问题,使用拉格朗日乘子法求解,那么构造:
m i n    l ( w , b ) + λ 2 ( ∣ ∣ w ∣ ∣ 2 − θ ) min\;\mathscr{l}(w,b)+\cfrac{\lambda}{2}\big(||w||^2-\theta\big) minl(w,b)+2λ(∣∣w2θ)
而对于 λ \lambda λ θ \theta θ知其一就可以解除另一个,所以可以等价为:
m i n    l ( w , b ) + λ 2 ∣ ∣ w ∣ ∣ 2 min\;\mathscr{l}(w,b)+\cfrac{\lambda}{2}||w||^2 minl(w,b)+2λ∣∣w2
可证明 λ → ∞ w ∗ → 0 \lambda\rightarrow\infty\quad w^*\rightarrow 0 λw0使用 λ \lambda λ控制 θ \theta θ

如下图中 C C C代表 θ \theta θ个方向坐标轴为 w w w的大小,可见 C C C越大 w w w越小则起到了控制模型容量的作用。
关于权重衰退和丢弃法_第1张图片

那么梯度的计算和参数更新就变为了:

梯度:
∂ ∂ w ( l ( w , b ) + λ 2 ∣ ∣ w ∣ ∣ 2 )    =    l ( w , b ) ∂ w + λ w \cfrac{\partial}{\partial w}\big ( \mathscr l(w,b)+\cfrac{\lambda}{2}||w||^2 \big )\;=\; \cfrac{\mathscr l (w,b)}{\partial w}+\lambda w w(l(w,b)+2λ∣∣w2)=wl(w,b)+λw

提取公因数后参数更新公示:
w t + 1 = ( 1 − η λ ) w t − η ∂ l ( w t , b t ) ∂ w t w_{t+1}=(1-\eta\lambda)w_t-\eta\cfrac{\partial \mathscr l(w_t,b_t)}{\partial w_t} wt+1=(1ηλ)wtηwtl(wt,bt)
λ η < 1 \lambda\eta<1 λη<1时叫做权重衰退。

丢弃法

丢弃法对输出的元素 x i x_i xi做如下扰动:
{ 0 , p r o b a b i l i t y    p x i 1 − p , o t h e r i s e \left\{\begin{matrix}0,\quad probability \;p \\\cfrac{x_i}{1-p},\quad otherise\end{matrix}\right. 0,probabilityp1pxi,otherise
经过此扰动对于每个 x i x_i xi的期望仍为 x i x_i xi
E ( x i ′ ) = 0 ⋅ p + ( 1 − p ) ⋅ x i 1 − p = x i E(x_i^{'})=0\cdot p+(1-p)\cdot \cfrac{x_i}{1-p}=x_i E(xi)=0p+(1p)1pxi=xi

丢弃法将一些隐藏层的输出随机的置为0,从而来控制模型复杂度,其丢弃概率为控制模型复杂度的超参数。
关于权重衰退和丢弃法_第2张图片
dropout只在训练时启用,用于调整参数,在推理时并不使用。

你可能感兴趣的:(机器学习,深度学习,神经网络,深度学习,人工智能,机器学习)