24.权衡模型的方差和偏差 翻译自 吴恩达新书-Machine Learning Yearning

吴恩达新书《机器学习年鉴》中文版单页版本

吴恩达新书《机器学习年鉴》全书目录导航

机器学习:让机器学会打游戏系列教程(含视频)

你可能以前听过“权衡偏差和⽅差”。大多数机器学习改进方法中,有⼀些可以降低偏差但是会导致方差的上升,反之亦然。这个时候就需要在偏差和方差中进行权衡了。

举例来说,增加你的模型的规模,不管是在神经网络中增加神经元/隐藏层,还是增加输入特征,可以普遍减少偏差但是会增加⽅差。另一方便,增加正则化⼀般会增加偏差,但是可以减少方差。

现在,因为可以使用大量的数据并且可以训练大型的神经网络(深度学习)。我们有了更多的选择,我们可以在不降低方差的同时,来让偏差降低,反之亦然。

比如,可以使用扩大神经网络规模和应用正则化的方法,来减少偏差的同时不会明显的影响偏差。通过增加训练的数据量,你可以在不影响偏差的前提下,减少⽅差。

⼀旦你选定了⼀个适用与你当前任务的模型架构,你可能需要同时减少偏差和方差。当然选择这样的架构并不容易。

在接下来章节中,我们会讨论⼀些特定的方法,来降低偏差和方差。

更多好玩的机器学习教程: 进入袋马学院领一份 ,全部免费.

你可能感兴趣的:(吴恩达-YEARNING)