深度学习记录--偏差/方差(bias/variance)

误差问题

拟合神经网络函数过程中会出现两种误差:偏差(bias)和方差(variance)

偏差和误差的区别

深度学习记录--偏差/方差(bias/variance)_第1张图片欠拟合(underfitting)

当偏差(bias)过大时,如左图,拟合图像存在部分不符合值,称为欠拟合(underfitting)

过拟合(overfitting)

当方差(variance)过大时,如右图,拟合图像过于特殊,不够集中(即方差过大),称为过拟合(overfitting)

误差和train/dev sets

以猫的识别为例:

基本误差/最优误差很小时,且train/dev sets来自同一分布,则会有以下判断:

train set error较小,dev set error过大:high variance

train set error过大,dev set error过大(与train set error差不多):high bias

train set error过大,dev set error过大(比train set error还大很多):high bias & high variance

train set error较小,dev set error较小:low bias & low variance

 假如基本误差不是很小,则要考虑error与基本误差之间的大小差距来进行恰当的判断

深度学习记录--偏差/方差(bias/variance)_第2张图片

训练神经网络的基本方法 

 high bias

--> bigger network(更深的神经网络模型)

--> train longer(训练更长时间,让模型更加成熟)

 high variance

-->more data(更大的数据量,更加具有普遍性)

-->regularization(正则化)

深度学习记录--偏差/方差(bias/variance)_第3张图片

你可能感兴趣的:(深度学习记录,深度学习,人工智能)