挖掘原理|线性回归损失函数和正规方程数学推导

一元线性回归浅析与公式推导

我们在高中的时候学过最小二乘法公式求解回归方程,所谓回归方程就是一条可以近似的拟合所给数据点的分布的直线方程: y ^ = a x + b \hat{y}=ax+b y^=ax+b
事实上,这是一元变量的线性回归问题,确定上述方程中参数a和b的方法就是最小二乘法公式: a = ∑ x i y i − n x ˉ y ˉ ∑ x i 2 − n x ˉ 2 a=\frac{\sum x_{i}y_{i}-n \bar{x} \bar{y}}{\sum x_{i}^{2}-n \bar{x}^2} a=xi2nxˉ2xiyinxˉyˉ
b = y ˉ − a x ˉ b=\bar{y}-a\bar{x} b=yˉaxˉ
下面我们来推导一下这两个公式:
挖掘原理|线性回归损失函数和正规方程数学推导_第1张图片

我们注意看上面的点,直观上大致可以找到一些直线去拟合数据点,我们似乎可以找到不止一条线,但是我们希望能找到一条直线让数据点尽可能的落在这条直线上,也就是尽可能的让我们拟合出的 y ^ \hat{y} y^与实际的 y y y的差值尽可能小,换言之就是让预测点与实际点的距离尽可能小(事实上应该是因为误差服从均值为0的正态分布,在后面的多元线性回归中用这种方式去推导),这一距离之和我们可以用欧式距离公式来表示,由于预测点与实际点的x相同,所以 d ( y i , y ^ i ) = ( y i − y ^ i ) 2 d(y_{i},\hat{y}_{i})= \sqrt {(y_{i}-\hat{y}_{i})^2} d(yi,y^i)=(yiy^i)2
m i n   d min \ d min d其实也就是求 m i n   ( y i − y ^ i ) 2 min\ (y_{i}-\hat{y}_{i})^2 min (yiy^i)2
所以这个问题是求 D ( y i , y ^ i ) = ∑ n i ( y i − y ^ i ) 2 = ∑ n i ( y i − ( a x i + b ) ) 2 D(y_{i},\hat{y}_{i})=\underset{i}{\overset{n}{\sum}}(y_{i}-\hat{y}_{i})^2 = \underset{i}{\overset{n}{\sum}}(y_{i}-(ax_{i}+b))^2 D(yi,y^i)=in(yiy^i)2=in(yi(axi+b))2
取到最小值时, a , b a,b a,b的值。

于是我们可以将其看作是D关于a和b 的二元函数,这个问题就变成了二元函数求极值的问题,接下来是求解过程:
∂ D ( y i − y ^ i ) ∂ a = − 2 ∑ n i x i ( y i − a x i − b ) \frac{\partial{D(y_{i}-\hat{y}_{i})}}{\partial{a}}=-2\underset{i}{\overset{n}{\sum}}x_{i}(y_{i}-ax_{i}-b) aD(yiy^i)=2inxi(yiax

你可能感兴趣的:(学习,线性回归,机器学习,人工智能)