2021-08-19

李宏毅机器学习P5-P8

  • P5 误差
    • 误差的来源
    • Bias
    • Variance
    • How to do with error?
  • P6 梯度下降
    • 学习率
    • feature scaling
    • GD 的限制

P5 误差

误差的来源

来源于两方面:Bias and Variance
2021-08-19_第1张图片

Bias

  1. 它是 f* 与 f^ 之间的差距
  2. bias大 是 underfitting(训练的就不好)
  3. 针对欠拟合,增加输入特征 或 构建复杂模型结构

Variance

  1. 它是 f(model set) 之间的差距
  2. variance大 是 overfitting (训练的好,但在测试上表现的不好)
  3. 针对过拟合,要增加数据量 或 regularization正则化更加平滑
    2021-08-19_第2张图片

以上两者要综合考虑,找到一个平衡点(bias 和 variance 都小),既不欠拟合也不过拟合。

How to do with error?

使用cross validation 交叉验证,training set 划分为training set 和 validation set。进一步地,使用n-fold cross validation 。
注:使用training set调整网络,而不是使用testing set 调整网络!

P6 梯度下降

是 获得最小 loss的过程中 更新参数 的方法

学习率

1.不能设置太大或者太小
2021-08-19_第3张图片
2. 自动调整learning rate: Adagrad (参数不同,lr不同)【g是梯度,梯度越大,步伐越大】
2021-08-19_第4张图片
3. Stochastic gradient descent
gd是看完所有exampel后,才更新一次参数;sgd是 每看到一次example,就更新一次参数。【θ是参数】
2021-08-19_第5张图片

feature scaling

使得输入特征 x1,x2…xn对loss的影响 相对差不多。
2021-08-19_第6张图片
那如何 进行feature scaling,也就是 标准化。
2021-08-19_第7张图片

GD 的限制

会卡在 local minima,或者说微分值为0

你可能感兴趣的:(自学,机器学习)