Deep learning 阅读笔记-2

variance and bias

一、概念定义

偏差(bias):偏差衡量了模型的预测值与实际值之间的偏离关系。通常在深度学习中,我们每一次训练迭代出来的新模型,都会拿训练数据进行预测,偏差就反应在预测值与实际值匹配度上,比如通常在keras运行中看到的准确度为96%,则说明是低偏差;反之,如果准确度只有70%,则说明是高偏差。

方差(variance):方差描述的是训练数据在不同迭代阶段的训练模型中,预测值的变化波动情况(或称之为离散情况)。从数学角度看,可以理解为每个预测值与预测均值差的平方和的再求平均数。通常在深度学习训练中,初始阶段模型复杂度不高,为低方差;随着训练量加大,模型逐步拟合训练数据,复杂度开始变高,此时方差会逐渐变高。

二、数学定义

 我们从简单的回归模型来入手,对于训练数据集S = {(xi , yi)},令yi = f(xi) + ε,假设为实际方程,其中ε是满足正态分布均值为0,标准差为σ的值。

我们再假设预测方程为h(x) = wx + b,这时我们希望总误差Err(x) = ∑i[yi - h(xi)]2 能达到最小值。给定某集合样本(x, y),我们可以展开误差公式,以生成用方差、偏差和噪音组合的方式。

在此之前,我们来引入一个辅助公式,令z为满足正态分布的随机值集合,再令z = E(z),即z 为z的平均值。

则E [(z - z)2] = E [z2 -2zz + z2]

= E [z2] - 2E [z]z + z2 注:E[z] = z,因为z是一个均值,其误差即是自己

= E [z2] - 2zz+z2

=  E [z2] -z2

可以得到一个辅助公式: E [z2] = E [(z -z)2] +z2 ,最后让我们来开展误差公式:

E [y - h(x)]2= E [y2 - 2yh(x) + h(x)2] 

= E [y2] - 2E[y] E[h(x)] + E[h(x)2]

= E [(y - y)2] + y2 - 2E[y]h(x) + E [(h(x) - h(x))2] + h(x)2        

= E [(y - (fx))2] + f(x)2- 2f(x)h(x)+ E [(h(x) -h(x))2] +h(x)2  

=E [(h(x) -h(x))2] + (h(x) - f(x))2 + E[(y - (fx))2] 

= variance + bias2 + noise

注:y= E[y] = E[f(x) +  ε] = E[f(x)] + E[ε] = E[f(x)] = f(x),ε均值已经被假定为0,对于具体的x,其E[f(x)] = f(x)

由此可见,误差 = 方差 + 偏差2 + 噪音 组成,一般来说,随着模型复杂度的增加,方差会逐渐增大,偏差会逐渐减小,见下图:


你可能感兴趣的:(Deep learning 阅读笔记-2)