经验误差,泛化误差

经验误差,泛化误差

前言

我们在上篇博文 《机器学习模型的容量,过拟合与欠拟合》 中曾经提到过模型的泛化问题,指的就是描述一个模型在未见过的数据中的表现能力。这里再提出了,用于比较经验误差。
联系方式:
e-mail: [email protected]
QQ: 973926198
github: https://github.com/FesianXu


假设我们现在有数据集 D={(x 1 ,y 1 ),(x 2 ,y 2 ),,(x i ,y i )},i=N  ,其中 N  是数据集的大小, x i   为数据的属性1, y i   为标签。假设有 y i Y  x i X,i=1,2,,N  ,假设 X  中的所有样本都满足一个隐含的,未知的分布 D  ,也就是说 D  中的所有样本都是从 D  独立同分布(i.i.d)地采样的。
然后假设 h  是算法 L  学习到的从 X  Y  的映射, y=h(x)  ,并且有 hH  ,其中 H  为算法 L  的假设空间。我们可以定义映射 h  泛化误差(generalization error):

E(h;D)=P xD (h(x)y) (1.1) 

因为我们无法观察到整个分布 D  ,只能观察到独立同分布采样后的 D  ,因此我们需要定义 经验误差(empirical error):
E ^ (h;D)=1N  i=1 N 1(h(x i )y i ),x i D (1.2) 

其中的 1()  表示当条件符合时输出1,否则输出0。由于 D  D  的独立同分布采样,因此 h  的经验误差的期望等于泛化误差。


引用:

  1. 《机器学习模型的容量,过拟合与欠拟合》 CSDN
  2. 《机器学习(四)经验风险与结构风险》 CSDN
  3. 《机器学习》 周志华著



  1. 数据的属性指的是数据的最原始的特征,比如图片的原始像素点,而数据的特征大多指的是属性经过特定的操作的数据,如图片的像素点经过CNN卷积之后得到的特征。广义来说,数据的属性和特征没有区别。 ↩

你可能感兴趣的:(Machine,Learning,模式识别与机器学习)