NNDL 作业12:第七章课后题

目录

习题7-1 在小批量梯度下降中,试分析为什么学习率要和批量大小成正比

习题7-2 在Adam算法中,说明指数加权平均的偏差修正的合理性 

习题7-9 证明在标准的随机梯度下降中,权重衰减正则化和​编辑正则化的效果相同.并分析这一结论在动量法和Adam算法中是否依然成立 

全面总结网络优化


习题7-1 在小批量梯度下降中,试分析为什么学习率要和批量大小成正比

在小批量梯度下降中:

g_{t}(\theta )=\frac{1}{K}\sum_{(x,y)\in S_{t}}\frac{\partial L(y,f(x;\theta ))}{\partial \theta }

 \theta _{t}=\theta _{t-1}-\alpha g_{t} 

g_{t}=\frac{1}{K}\delta,则: \theta _{t}=\theta _{t-1}-\frac{\alpha }{K}\delta

因此\frac{\alpha }{K}为参数最优的时候的常数,学习率和批量大小成正比。

习题7-2 在Adam算法中,说明指数加权平均的偏差修正的合理性 

在Adam算法中:

M_{t}=\beta _{1}M_{t-1}+(1-\beta _{1})g_{t}

G_{t}=\beta _{2}G_{t-1}+(1-\beta _{2})\odot g_{t}

 因此当\beta_{1}\to 1,\beta _{2}\to 1的时候:

\lim_{\beta_{1} \to 1}M_{t}=M_{t-1}

\lim_{\beta_{2} \to 1}G_{t}=G_{t-1}

 由此可以发现此时的梯度消失,因此需要进行偏差修正。

习题7-9 证明在标准的随机梯度下降中,权重衰减正则化和L_{2}正则化的效果相同.并分析这一结论在动量法和Adam算法中是否依然成立 

 证明:

L_{t}为第t步的损失函数,有L_{t}=L_{0}+\frac{\lambda }{2}\left \| W\right \|^{2}l_{2}正则化)。

求导:

\frac{\partial L_{t}}{\partial w}=\frac{\partial L_{0}}{\partial w}+\lambda W

\frac{\partial L_{t}}{\partial b}=\frac{\partial L_{0}}{\partial b}

标准的随机梯度下降:

w\leftarrow w-\eta (\frac{\partial L_{0}}{\partial w}+\lambda W)=(1-\eta \lambda )w-\eta \frac{\partial L_{0}}{\partial w}

同理有:

b\leftarrow b-\eta \frac{\partial L_{0}}{\partial b}

我们令\eta \lambda =\beta,就可以推出:

\Theta_{t}\leftarrow \left ( 1- \beta \right )\Theta_{t-1}-\alpha g_{t}

分析这一结论在动量法和 Adam算法中是否依然成立.
L2正则化梯度更新的方向取决于最近一段时间内梯度的加权平均值。
当与自适应梯度相结合时(动量法和Adam算法),
L2正则化导致导致具有较大历史参数 (和/或) 梯度振幅的权重被正则化的程度小于使用权值衰减时的情况。

全面总结网络优化

NNDL 作业12:第七章课后题_第1张图片

 

你可能感兴趣的:(深度学习,算法)