关于Kriging代理模型的理解(转)

1.回归问题

如果有多个自变量和一个因变量和代表它们关系的训练样本,目的就是求这个因变量关于这多个自变量的函数。

二. 最小二乘法    (转)

   我们以最简单的一元线性模型来解释最小二乘法。什么是一元线性模型呢? 监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。对于二维空间线性是一条直线;对于三维空间线性是一个平面,对于多维空间线性是一个超平面...

   对于一元线性回归模型, 假设从总体中获取了n组观察值(X1,Y1),(X2,Y2), …,(Xn,Yn)。对于平面中的这n个点,可以使用无数条曲线来拟合。要求样本回归函数尽可能好地拟合这组值。综合起来看,这条直线处于样本数据的中心位置最合理。 选择最佳拟合曲线的标准可以确定为:使总的拟合误差(即总残差)达到最小。有以下三个标准可以选择:

        (1)用“残差和最小”确定直线位置是一个途径。但很快发现计算“残差和”存在相互抵消的问题。
        (2)用“残差绝对值和最小”确定直线位置也是一个途径。但绝对值的计算比较麻烦。
        (3)最小二乘法的原则是以“残差平方和最小”确定直线位置。用最小二乘法除了计算比较方便外,得到的估计量还具有优良特性。这种方法对异常值非常敏感。

  最常用的是普通最小二乘法( Ordinary  Least Square,OLS):所选择的回归模型应该使所有观察值的残差平方和达到最小。(Q为残差平方和)- 即采用平方损失函数。

  样本回归模型:

                  关于Kriging代理模型的理解(转)_第1张图片                   其中ei为样本(Xi, Yi)的误差

   平方损失函数:

                      

   则通过Q最小确定这条直线,即确定,以为变量,把它们看作是Q的函数,就变成了一个求极值的问题,可以通过求导数得到。求Q对两个待估参数的偏导数:

                   关于Kriging代理模型的理解(转)_第2张图片    

    根据数学知识我们知道,函数的极值点为偏导为0的点。

    解得:

                   关于Kriging代理模型的理解(转)_第3张图片

 

这就是最小二乘法的解法,就是求得平方损失函数的极值点。



2.  Kriging模型(转)
  Kriging模型是一种估计方差最小的无偏估计模型,具有局部估计的特点,最早由南非地质学者Danie Krige于1951年提出,主要应用领域为地质界:
  f(x)=g(x)+z(x)
  上式中g(x)是一个确定性部分,称为确定性漂移,一般用多项式表示;z(x)称为涨落,具有如下的统计特性
  E[z(x)]=0
  Var[z(x)]=σ2
  E[z(xi),z(x)]=σ2R(c,x,xi) =〉
    E[f(x)]=g(x)
其中R(c,x,xi)是带有参数c的相关函数,常用的相关函数有
  高斯函数:R(d)=exp(-d2/c2)
  指数函数:R(d)=exp(-d/c)
利用样本点xi的响应值yi的线性加权叠加插值计算待测点x的响应值:
             关于Kriging代理模型的理解(转)_第4张图片 
考虑无偏条
             关于Kriging代理模型的理解(转)_第5张图片
有:         关于Kriging代理模型的理解(转)_第6张图片 
 
利用最小二乘法可以求出权重w(x)。用Kriging模型估计的误差为:
          关于Kriging代理模型的理解(转)_第7张图片

  Kriging方法具有局部估计的特点,而且相关函数的连续性和可导性也比较好,在解决非线性程度较高的问题时往往也能取得比较理想的拟合效果。

你可能感兴趣的:(多学科优化)