25.减少可避免的偏差方法 翻译自 吴恩达新书-Machine Learning Yearning

吴恩达新书《机器学习年鉴》中文版单页版本

吴恩达新书《机器学习年鉴》全书目录导航

机器学习:让机器学会打游戏系列教程(含视频)

如果你的学习算法中的可避免偏差很高,你可以尝试使用下面的⽅法:

  • 增加模型规模(比如神经元/层的数量):这个方法可以减少偏差,因为这样可以使得你的模型可以更好的拟合当前的训练集。如果你发现使用这个方法时方差增加了,那就使用正则化,这⼀做法通常会抑制方差的上升。
  • 基于误差分析修改输入特征:如果说你的误差分析告诉你要创建更多的特征来帮助算法减少某⼀特定种类的错误(我们会在下⼀章讨论)。这些新的特征应该在偏差和方差方面都可以帮助你。理论上来说,增加更多的特征会相应增加方差;如果你遇到这种情况,就使用正则化,来抑制方差的增长。
  • 减少或去除正则化(L2正则化,L1正则化,dropout):这会减少可避免偏差,但是会增加方差。
  • 修改模型架构(比如神经网络架构):使得你的模型更加适合于你的问题,这个方法会对偏差和方差都造成影响。

有⼀种方法对减少偏差不会多大帮助:

  • 加⼊更多训练数据:这种方法对方差问题有帮助,但是通常无法解决偏差的问题。

更多好玩的机器学习教程: 进入袋马学院领一份 ,全部免费.

你可能感兴趣的:(吴恩达-YEARNING)