线性回归是比较经典的线性模型,属于监督学习中预测值为连续值的回归问题。
线性回归针对的是一个或多个特征与连续目标变量之间的关系建模,即线性回归分析的主要目标是在连续尺度上预测输出,而非分类标签,即预测值为连续值。
相信我们很多人可能都有去售楼处买房而无奈回家的行为,就算你没去过售楼处,相信你也应该听说过那令人叹而惊止的房价吧?对于高房价你没有想过这房价是怎么算出来的呢?难道就是房地产商拍拍脑门,北京的一概1000万,上海的一概800万,杭州的一概600万吗?看到这相信你应该有动力想要学好机器学习走向人生巅峰了。
其实仔细想想这房价大有来头,首先房价不可能只和地区有关,北京有1000万的房子,又会有800万、600万的房子,那这些房价不和地区有关还和什么有关呢?如果你真的买过房就知道,房子的价格首先和地区是有着比较大的联系的,北京五环外的房子可能都高于杭州任何地区的房子,在同一个地区内,房子的价格大多和房子的占地面积、户型、采光度等等因素有关系。
这个时候就有某位聪明的投机者想到了,我是不是可以找到一个方法来预测房价呢?如果这个房子的房价明显小于这所房子该有的房价(注:房价可能在某段时间由于某种不为人知的因素有小幅波动),就把那所买过来了,等房价涨回去了再卖出去,这样看起来也是生财之道。(注:纯属虚构)
可是如果去预测房价呢?上面讲到了房价和房子所在地区 x 1 x_1 x1、占地面积 x 2 x_2 x2、户型 x 3 x_3 x3和采光度 x 4 x_4 x4有关,那么我是不是可以把这些因素假想成房子的特征,然后给这些每个特征都加上一个相应的权重 ω \omega ω,既可以得到如下的决策函数
y ^ = ω 1 x 1 + ω 2 x 2 + ω 3 x 3 + ω 4 x 4 + b \hat{y} = \omega_1x_1 + \omega_2x_2 + \omega_3x_3 + \omega_4x_4 + b y^=ω1x1+ω2x2+ω3x3+ω4x4+b
其中 b b b可以理解为偏差,你也可以想成房子的这些特征再差也可能会有一个底价。
基于上述给出房价的决策函数,我们就可以对一个某个不知名的房子输入它的这些特征,然后就可以得到这所房子的预测价格了。
理想总是美好的,即一条生财之道就在眼前,但是我们如何去得到这个决策函数呢?我们可以得到这个特征值,但是这个 ω \omega ω怎么得到呢?这就是我们的线性回归需要解决的问题,下面让我们一起走向这条生财之道吧!
给定有 n n n属性的样本 x = ( x 1 , x 2 , … , x n ) x=(x_1,x_2,\ldots,x_n) x=(x1,x2,…,xn),其中 x i x_i xi是 x x x在第 i i i个属性上的取值,线性模型(linear model)则是试图学得一个通过线性组合预测的函数。该线性组合可以表示为
y ^ = f ( x ) = ω 1 x 1 + ω 2 x 2 + ⋯ + ω n x n + b \hat{y} = f(x) = \omega_1x_1 + \omega_2x_2 + \cdots + \omega_nx_n + b y^=f(x)=ω1x1+ω2x2+⋯+ωnxn+b
线性组合用向量可以表示为
y ^ = f ( x ) = ω T x + b ω = { ω 1 , ω 2 , … , ω n } , x = { x 1 , x 2 , … , x n } ! [ 在 这 里 插 入 图 片 描 述 ] ( h t t p s : / / i m g − b l o g . c s d n i m g . c n / 20200225191156406. p n g ? x − o s s − p r o c e s s = i m a g e / w a t e r m a r k , t y p e Z m F u Z 3 p o Z W 5 n a G V p d G k , s h a d o w 1 0 , t e x t a H R 0 c H M 6 L y 9 i b G 9 n L m N z Z G 4 u b m V 0 L 3 d l a X h p b l 80 N j A z M j M 1 M Q = = , s i z e 1 6 , c o l o r F F F F F F , t 7 0 ) \hat{y} = f(x) = \omega^Tx + b \quad \omega=\{\omega_1,\omega_2,\ldots,\omega_n\},x=\{x_1,x_2,\dots,x_n\} ![在这里插入图片描述](https://img-blog.csdnimg.cn/20200225191156406.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NjAzMjM1MQ==,size_16,color_FFFFFF,t_70) y^=f(x)=ωTx+bω={ω1,ω2,…,ωn},x={x1,x2,…,xn}![在这里插入图片描述](https://img−blog.csdnimg.cn/20200225191156406.png?x−oss−process=image/watermark,typeZmFuZ3poZW5naGVpdGk,shadow10,textaHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NjAzMjM1MQ==,size16,colorFFFFFF,t70)
如果 ω \omega ω和 b b b被确定之后,模型就可以确定。
给定有 m m m个样本的数据集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , … , ( x m , y m ) } D=\{(x_1,y_1),(x_2,y_2),\ldots,(x_m,y_m)\} D={(x1,y1),(x2,y2),…,(xm,ym)},假设每个样本只有 1 1 1个特征为 x i x_i xi。
由于线性回归属于线性模型的一种,则线性回归也可以通过线性组合的方式学得关于预测值的公式
y i ^ = f ( x i ) = ω x i + b \hat{y_i} = f(x_i) = \omega{x_{i}} + b yi^=f(xi)=ωxi+b
现在的问题时如何学得并确定 ω \omega ω和 b b b。显然,关键在于衡量真实值 y i y_i yi和预测值 y i ^ \hat{y_i} yi^之间的差别。通常在回归任务中使用均方误差作为回归模型的性能度量,既可以得到线性回归的损失函数
L ( ω , b ) = ( y i − y i ^ ) 2 L(\omega,b) = (y_i - \hat{y_{i}})^2 L(ω,b)=(yi−yi^)2
通过损失函数则可以得到线性回归的目标函数
KaTeX parse error: No such environment: align at position 8: \begin{̲a̲l̲i̲g̲n̲}̲ J(\omega,b) & …
均方误差的几何意义对应了欧氏距离(Euclidean distance),基于均方误差最小化进行模型求解的方法称为最小二乘法(least square method)。在线性回归中,最小二乘法试图找到一条直线,使所有样本的欧式距离之和最小,即试图让均方误差最小化。
在回归问题中对均方误差最小化的过程称为线性回归的最小二乘参数估计(parameter estimation),可以对均方误差分别对 ω \omega ω和 b b b求导得
KaTeX parse error: No such environment: align at position 8: \begin{̲a̲l̲i̲g̲n̲}̲ & {\frac{\part…
利用数学中求极值的思想即可求得 ω \omega ω和 b b b的最优解
ω = ∑ i = 1 m y i ( x i − x ‾ ) ∑ i = 1 m x i 2 − 1 m ( ∑ i = 1 m x i ) 2 \omega = {\frac {\sum_{i=1}^m y_i(x_i-\overline{x})} {\sum_{i=1}^m {x_i}^2 - {\frac{1}{m}(\sum_{i=1}^m x_i)^2}} } ω=∑i=1mxi2−m1(∑i=1mxi)2∑i=1myi(xi−x)
b = 1 m ∑ i = 1 m ( y i − ω x i ) b = {\frac{1}{m}} \sum_{i=1}^m (y_i - \omega{x_i}) b=m1i=1∑m(yi−ωxi)
其中 x ‾ = 1 m ∑ i = 1 m x i \overline{x} = {\frac{1}{m}}\sum_{i=1}^m x_i x=m1∑i=1mxi,即 x x x的均值
一元线性回归更多的是为了入门,通常情况下碰到的问题都是用多元线性回归(multivariate linear regression)解决的,即样本通常都有 n , n > 1 n, \quad n>1 n,n>1个特征。
给定数据集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , … , ( x m , y m ) } D=\{(x_1,y_1),(x_2,y_2),\ldots,(x_m,y_m)\} D={(x1,y1),(x2,y2),…,(xm,ym)},假设每个样本有 n n n个特征则 x i = x i 1 , x i 2 , … , x i n x_i = x_{i1},x_{i2},\ldots,x_{in} xi=xi1,xi2,…,xin。由此可以得到 n n n个特征样本的预测值和目标函数
y i ^ = f ( x i ) = ω 0 x i 0 + ω 1 x i 1 + ω 2 x i 2 + ⋯ + ω n x i n + b = ω T x i w 0 = b , x i 0 = 1 \hat{y_i} = f(x_i) = \omega_0x_{i0} + \omega_1x_{i1} + \omega_2x_{i2} + \cdots + \omega_nx_{in} + b = \omega^Tx_i \quad w_0=b,x_{i0}=1 yi^=f(xi)=ω0xi0+ω1xi1+ω2xi2+⋯+ωnxin+b=ωTxiw0=b,xi0=1
KaTeX parse error: No such environment: align at position 8: \begin{̲a̲l̲i̲g̲n̲}̲ J(\omega) & = …
如果对该目标函数直接使用最小二乘法进行估计,计算会很麻烦,因此把特征和标记都写成向量的形式并命名为 X X X和 Y Y Y
X = ( x 11 x 12 ⋯ x 1 n 1 x 21 x 22 ⋯ x 2 n 1 ⋮ ⋮ ⋱ ⋮ ⋮ x m 1 x m 2 ⋯ x m n 1 ) X = \begin{pmatrix} x_{11} & x_{12} & \cdots & x_{1n} & 1 \\ x_{21} & x_{22} & \cdots & x_{2n} & 1\\ \vdots & \vdots & \ddots & \vdots & \vdots \\ x_{m1} & x_{m2} & \cdots & x_{mn} & 1\\ \end{pmatrix} X=⎝⎜⎜⎜⎛x11x21⋮xm1x12x22⋮xm2⋯⋯⋱⋯x1nx2n⋮xmn11⋮1⎠⎟⎟⎟⎞
Y = ( y 1 y 2 ⋯ y m ) Y = \begin{pmatrix} y_1 & y_2 & \cdots & y_m \end{pmatrix} Y=(y1y2⋯ym)
通过上述向量的转换可以把目标函数转换成
J ( ω ) = 1 2 ( X ω − Y ) T ( X ω − Y ) J(\omega) = {\frac{1}{2}}(X\omega-Y)^T(X\omega-Y) J(ω)=21(Xω−Y)T(Xω−Y)
其中 1 2 {\frac{1}{2}} 21是为了方便计算。
同一元线性回归,对 ω \omega ω求导找到最优的 ω \omega ω,对 ω \omega ω求导得
∂ L ( ω ) ∂ ω = 2 X T ( X ω − Y ) {\frac {\partial{L(\omega)}} {\partial{\omega}}} = 2X^T(X\omega-Y) ∂ω∂L(ω)=2XT(Xω−Y)
得到目标函数对 ω \omega ω求导公式之后,理应求 2 X T ( X ω − Y ) = 0 2X^T(X\omega-Y)=0 2XT(Xω−Y)=0时 ω \omega ω的值,但是需要考虑 X T X X^TX XTX是否为满秩矩阵。
当 X T X X^TX XTX为满秩矩阵(full-rank matrix)或正定矩阵(positive definite matrix)时, 2 X T ( X ω − Y ) = 0 2X^T(X\omega-Y)=0 2XT(Xω−Y)=0可得 ω \omega ω为
ω = ( X T X ) − 1 X T Y \omega = (X^TX)^{-1}X^TY ω=(XTX)−1XTY
然而现实生活中 X T X X^TX XTX往往不为满秩矩阵,例如生物信息学的基因芯片数据中常有成千万个属性,但往往只有几百个样例。因此会有多个 ω \omega ω都能使得 2 X T ( X ω − Y ) = 0 2X^T(X\omega-Y)=0 2XT(Xω−Y)=0,即这些 ω \omega ω都能使得均方误差最小化,通常情况下会引入正则化(regularization)项解决该问题。
ω \omega ω加入正则化项则变成
ω = ( X T X + λ I ) − 1 X T Y \omega = (X^TX+\lambda{I})^{-1}X^TY ω=(XTX+λI)−1XTY
由于加上正则化项 λ I \lambda{I} λI后,对任意的实数 λ \lambda λ, X T X + λ I X^TX+\lambda{I} XTX+λI一定为满秩矩阵。
使用二阶的海森矩阵的逆矩阵或伪逆矩阵求解,相比比梯度下降法收敛更快,但是当特征参数大时,计算量庞大,时间慢。
牛顿法得到的 f ′ ′ ( x ) f''(x) f′′(x)是一个半正定矩阵,拟牛顿法则利用一个正定矩阵代替这个半正定矩阵。
前面说到线性模型为
y ^ = f ( x ) = ω 1 x 1 + ω 2 x 2 + ⋯ + ω n x n + b \hat{y} = f(x) = \omega_1x_1 + \omega_2x_2 + \cdots + \omega_nx_n + b y^=f(x)=ω1x1+ω2x2+⋯+ωnxn+b
但是如果在这个关系式中不仅用到特征 x i x_i xi的一次方,而是增加一个关于 x i x_i xi的 n , n ≥ 2 n, \quad n\geq2 n,n≥2次方,那么模型就变成了多项式回归(polynomial regression)。
假设一个正方体的房子的价格与房子的边长、房子的占地面积和房子的体积有关系,然而现在只有房子的边长 x 1 x_1 x1一个特征,如果只拿特征去预测房子的价格,则有很大可能会欠拟合,因此需要增加房子的占地面积和体积这两个特征,即
y ^ = ω 1 x 1 + ω 2 x 1 2 + ω 3 x 1 3 + b \hat{y} = \omega_1x_1 + \omega_2{x_1}^2 + \omega_3{x_1}^3 + b y^=ω1x1+ω2x12+ω3x13+b
令 x 1 = x 1 , x 2 = x 1 2 , x 3 = x 1 3 x_1=x_1,x_2={x_1}^2,x_3={x_1}^3 x1=x1,x2=x12,x3=x13,则多项式的线性模型变成
y ^ = ω 1 x 1 + ω 2 x 2 + ω 3 x 3 + b \hat{y} = \omega_1x_1 + \omega_2x_2 + \omega_3x_3 + b y^=ω1x1+ω2x2+ω3x3+b
通过上述转换多项式的线性模型变成了一个多(三)元线性回归的问题,可以使用线性回归的方法来完成算法。并且对于每个边长这个特征 ( x 1 ) (x_1) (x1)得到一个三元样本特征 ( x 1 , x 1 2 , x 1 3 ) (x_1,{x_1}^2,{x_1}^3) (x1,x12,x13)。需要注意的是对于多维度特征时,使用多项式回归会使得特征之间的关联度增加,例如这三个特征 ( x 1 , x 1 2 , x 1 3 ) (x_1,{x_1}^2,{x_1}^3) (x1,x12,x13)是有很高的相关性的。
拿上一个例子假设,如果房子的边长为 10 10 10,则房子的占地面积为 100 100 100,房子的体积为 1000 1000 1000,这三个特征有了数量级的差距,所以在使用多项式回归的时候需要注意对特征进行特征统一尺度处理。
工业上可能并不像房子的面积、房子的体积一样有明确的目标加上 2 次 方 2次方 2次方或者 3 次 方 3次方 3次方,而可能是加上 2 次 方 2次方 2次方或者 5 次 方 5次方 5次方模型就能变得更好,但是并不知道 2 次 方 2次方 2次方和 5 次 方 5次方 5次方表示什么意思,进而会导致模型的解释能力变差。
假设现在得到了一个线性回归模型 y ^ = ω T x + b \hat{y}=\omega^Tx+b y^=ωTx+b,但是该线性模型无法满足输出 y ^ \hat{y} y^与输入 x x x的线性关系,但是 ln y ^ \ln\hat{y} lny^和 x x x满足线性关系,则可以将输出标记的对数作为线性模型逼近的目标,即模型函数如下
ln y ^ = ω T x + b \ln\hat{y} = \omega^Tx+b lny^=ωTx+b
这就是对数线性回归(log-linear regression),它实际上是在视图让 e ω T + b e^{\omega^T+b} eωT+b逼近 y ^ \hat{y} y^,但是仍然可以使用线性回归的算法去处理该问题。
假设函数 g ( ⋅ ) g(·) g(⋅)是单调可微的函数,则一般化的广义线性模型(generalized linear model)可以表示为
y ^ = g − 1 ( ω T x + b ) 或者 g ( y ^ ) = ω T x + b \hat{y} = g^{-1}(\omega^Tx+b) \quad \text{或者} \quad g(\hat{y}) = \omega^Tx+b y^=g−1(ωTx+b)或者g(y^)=ωTx+b
其中 g ( ⋅ ) g(·) g(⋅)称为联系函数(link function),并且对数线性回归是广义线性模型在 g ( ⋅ ) = l n ( ⋅ ) g(·)=ln(·) g(⋅)=ln(⋅)时的特例。
线性回归的一个大问题就是容易欠拟合,上次讲到的多项式回归属于解决欠拟合的方法之一,但是它也增加了数据的维度,如果数据本身有很多维度,则不适合使用多项式回归。
局部加权线性回归(locally weighted linear regression)也可以解决数据欠拟合的问题,它主要是在估计中引入一些偏差,从而降低预测的均方误差,它的目标函数为
KaTeX parse error: No such environment: align at position 8: \begin{̲a̲l̲i̲g̲n̲}̲ J(\omega) & = …
其中 w i w_i wi和 W W W都是对角矩阵,用来给每个数据点赋予权重。
目标函数对 ω \omega ω求导得
∂ J ( ω ) ∂ ω = X T W X ω − X T W Y {\frac{\partial{J(\omega)}}{\partial{\omega}}} = X^TWX\omega-X^TWY ∂ω∂J(ω)=XTWXω−XTWY
局部加权线性回归给预测点附近的每个点赋予一定的权重,然后与线性回归类似,在这个被赋予权重的样本的子集上基于最小均方误差来进行普通的回归,即 X T W X ω − X T W Y = 0 X^TWX\omega-X^TWY=0 XTWXω−XTWY=0时可以得到最优的 ω \omega ω为
ω = ( X T W X ) − 1 X T W Y \omega = (X^TWX)^{-1}X^TWY ω=(XTWX)−1XTWY
其中局部加权线性回归与支持向量机类似,使用核函数给离预测点越近的点赋予更高的权重;离预测点越远的点赋予更低的权重。核的类型一般可以自由选择,一般情况下使用高斯核,高斯核对应的权重如下
W ( i , i ) = e x p ( ∣ x ( i ) − x ∣ − 2 k 2 ) W(i,i) = exp({\frac{|x^{(i)}-x|}{-2k^2}}) W(i,i)=exp(−2k2∣x(i)−x∣)
其中 k k k相当于学习率,它决定了对附近的点赋予多大的权重。
通过高斯核即可构造一个只含对角元素的矩阵 W W W,并且点 x x x与 x i x_i xi越近,则 ∣ x ( i ) − x ∣ |x^{(i)}-x| ∣x(i)−x∣越接近1, W ( i , i ) W(i,i) W(i,i)将会越趋近于 1 1 1;如果点 x x x与 x i x_i xi越远,则 ∣ x ( i ) − x ∣ |x^{(i)}-x| ∣x(i)−x∣越接近0, W ( i , i ) W(i,i) W(i,i)将会越趋近于 0 0 0,即离预测点越接近的点权重越高,离预测点越远的点权重越低,这也是局部加权线性回归只关注附近点的原因。
局部加权线性回归虽然解决了欠拟合的问题,但是由于每个预测点都要进行一次线性回归的运算,因此样本数越多则该方法的计算量将越大。相比较普通的线性回归,普通的线性回归属于参数模型,而局部加权线性回归属于非参数模型,每次增加新数据的时候都需要基于样本重新计算 ω \omega ω。
在过拟合问题的时候说到过,为了解决过拟合问题时,可以在建立模型的时候加上正则化项。对于线性模型,一般有L1正则化、L2正则化和弹性网络等。
线性回归的L1正则化通常称为Lasso回归,它和普通的线性回归的区别是它在目标函数上增加了一个L1正则化项,L1正则化项有一个正则化参数 λ \lambda λ调节目标函数的均方误差项和正则化项的权重,Lasso回归的目标函数表达式为
J ( ω ) = 1 2 ( X ω − Y ) T ( X ω − Y ) + λ ∑ i = 1 m ∣ ∣ ω ∣ ∣ 1 J(\omega) = {\frac{1}{2}} (X\omega-Y)^T (X\omega-Y) + \lambda\sum_{i=1}^m||\omega||_1 J(ω)=21(Xω−Y)T(Xω−Y)+λi=1∑m∣∣ω∣∣1
其中 1 2 {\frac{1}{2}} 21只是为了方便计算, m m m是样本数量, ∣ ∣ ω ∣ ∣ 1 ||\omega||_1 ∣∣ω∣∣1为L1范数。
由于目标函数中的L1范数用的是绝对值之和,导致目标函数中有不可导的点,即无法使用最小二乘法、梯度下降法、牛顿法求解使得均方误差最小化的 ω \omega ω,因此可以使用全新的方法求解最优 ω \omega ω,即坐标轴下降法(coordinate descent)和最小角回归法(least angle regression)
如果你对Lasso回归的求解过程熟悉了,会发现Lasso回归可以使得一些特征的 ω \omega ω变小,甚至还能使得一些绝对值较小的 ω \omega ω直接变成 0 0 0,进而使得数据的特征变得稀疏,增强模型的泛化能力。
线性回归的L2正则化通常称为Ridge回归,也称为岭回归。它和普通的线性回归的区别是它在目标函数上增加了一个L2正则化项,而Ridge回归与Lasso回归的区别在于Lasso回归的正则化项是L1范数,而Ridge回归的正则化项是L2范数,Ridge回归的目标函数表达式为
J ( ω ) = 1 2 ( X ω − Y ) T ( X ω − Y ) + 1 2 λ ∑ i = 1 m ∣ ∣ ω ∣ ∣ 2 J(\omega) = {\frac{1}{2}} (X\omega-Y)^T (X\omega-Y) + {\frac{1}{2}}\lambda\sum_{i=1}^m||\omega||_2 J(ω)=21(Xω−Y)T(Xω−Y)+21λi=1∑m∣∣ω∣∣2
其中 1 2 {\frac{1}{2}} 21只是为了方便计算, m m m是样本数量, ∣ ∣ ω ∣ ∣ 2 ||\omega||_2 ∣∣ω∣∣2为L2范数。
Ridge回归一般使用最小二乘法的矩阵推导形式,和普通的线性回归类似,首先对 ω \omega ω求导得
∂ J ( ω ) ∂ ω = X T ( X ω − Y ) + λ ω {\frac{\partial{J(\omega)}}{\partial{\omega}}} = X^T(X\omega-Y)+\lambda\omega ∂ω∂J(ω)=XT(Xω−Y)+λω
令 X T ( X ω − Y ) + λ ω = 0 X^T(X\omega-Y)+\lambda\omega=0 XT(Xω−Y)+λω=0即可得到 ω \omega ω为
ω = ( X T X + λ E ) − 1 X T Y \omega = (X^TX+\lambda{E})^{-1}X^TY ω=(XTX+λE)−1XTY
其中 E E E为单位矩阵。
弹性网络(elastic net)是对Ridge回归和Lasso回归的折中处理,通过混合比 γ \gamma γ进行控制,即它的目标函数为
J ( ω ) = 1 2 ( X ω − Y ) T ( X ω − Y ) + γ λ ∑ i = 1 m ∣ ∣ ω ∣ ∣ 1 + 1 − γ 2 λ ∑ i = 1 m ∣ ∣ ω ∣ ∣ 2 J(\omega) = {\frac{1}{2}} (X\omega-Y)^T (X\omega-Y) + \gamma\lambda\sum_{i=1}^m||\omega||_1 +{\frac{1-\gamma}{2}}\lambda\sum_{i=1}^m||\omega||_2 J(ω)=21(Xω−Y)T(Xω−Y)+γλi=1∑m∣∣ω∣∣1+21−γλi=1∑m∣∣ω∣∣2
其中 γ \gamma γ和 λ \lambda λ都是超参数,当 γ = 1 \gamma=1 γ=1的时候弹性网络为Ridge回归;当 γ = 0 \gamma=0 γ=0的时候弹性网络为Lasso回归,至于混合比 γ \gamma γ值具体情况具体分析。
有 m m m个实例 n n n维特征的数据集
T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯ , ( x m , y m ) } T=\{(x_1,y_1),(x_2,y_2),\cdots,(x_m,y_m)\} T={(x1,y1),(x2,y2),⋯,(xm,ym)}
其中 x i x_i xi是实例的特征向量即 ( x i ( 1 ) , x i ( 2 ) , ⋯ , x i ( n ) ) ({x_i}^{(1)},{x_i}^{(2)},\cdots,{x_i}^{(n)}) (xi(1),xi(2),⋯,xi(n))。
ω \omega ω和线性回归模型 f ( x ) = ω T x f(x)=\omega^Tx f(x)=ωTx。
线性回归可以说是我们学的第一个工业上还在使用的算法,对于连续值的测量线性回归的表现还是挺不错的。但通常情况下还是需要多多尝试线性回归的变种,即对数线性回归、正则化线性回归,使用它们能够更精准的预测数据,解决过拟合问题,也可以一定的程度让线性回归拟合非线性数据。