神经网络里的正则项 Regularization

前言

网上的教程公式实在是太多,参数又指代不明,但仍然无法给我一个确定的答案,最后还是找了吴恩达教授的视频,十分清晰,记录一下~

整理

Regression的神经网络里,Cost function为
神经网络里的正则项 Regularization_第1张图片
其中:

  • Q Q Q:sample数量
  • t \bm{t} t o \bm{o} o:target output和实际output
  • λ \lambda λ:L2正则参数
  • R ( W ) = ∑ l = 1 L ∥ W ( l ) ∥ F 2 {\rm R}(\mathbf{W}) = \sum_{l=1}^{L}\left\|\mathbf{W}^{(l)}\right\|^2_F R(W)=l=1LW(l)F2
  • ∥ W ( l ) ∥ F 2 = ∑ i = 1 n ( l − 1 ) ∑ j = 1 n ( l ) w i j 2 \left\|\mathbf{W}^{(l)}\right\|^2_F=\sum_{i=1}^{{n^{(l-1)}}}\sum_{j=1}^{{n^{(l)}}}w_{ij}^2 W(l)F2=i=1n(l1)j=1n(l)wij2

笔记

  • 神经网络
    神经网络里的正则项 Regularization_第2张图片
  • 逻辑回归
    神经网络里的正则项 Regularization_第3张图片

Ref

  • 笔记来自课程:Regularization (C2W1L04)
  • 较好的整理网络优化与正则化
  • 改善深层神经网络(注意L2 regularization写得不对)
  • Deep Learning – Regularization(短短而小清晰)
  • sklearn理论教程:Neural network models (supervised),关于MLP里的理论实现
  • 正则化(Regularization):梯度下降法和牛顿法
    神经网络里的正则项 Regularization_第4张图片
    神经网络里的正则项 Regularization_第5张图片

你可能感兴趣的:(机器学习)