Stanford机器学习 第二周:多变量线性回归

1 多维特征(Multiple features)

Stanford机器学习 第二周:多变量线性回归_第1张图片

假设房价与图中四个变量(特征)有关,此时的假设函数为:

        

更具一般性的,假设与n个变量有关

Stanford机器学习 第二周:多变量线性回归_第2张图片

2 多变量梯度下降

下图分别为单变量梯度下降与多变量梯度下降算法:

Stanford机器学习 第二周:多变量线性回归_第3张图片

3 梯度下降法实践1:特征收缩(Feature Scaling)

特征收缩是在处理多维变量(特征)时,确保这些变量具有相近的尺度。下图是预测房价的例子,房屋的尺寸(0-2000)跟卧室的数量(1-5),这两个特征的尺度差距较大,若不进行处理就会像下边的左图一样,等高线图很窄,梯度下降需要很多次迭代才能收敛。

Stanford机器学习 第二周:多变量线性回归_第4张图片

特征收缩是让每个特征都近似在的范围,比如:,这样的特征也算是近似的范围[-1,1],但是这样的特征就不符合要求了。一般范围在[-3,3]或者[-1/3,1/3]的范围都是可以接受的。

均值归一化(Mean normalization)

,是均值,是范围(最大值-最小值)或者标准差

特征收缩不需要太精确(比如卧室的最大值-最小值=4或者5 关系不大),特征收缩可以将梯度下降的速度变得更快,让梯度下降收敛所需的迭代次数更少。

4 梯度下降法实践2:学习率(learning rate)

梯度下降算法收敛所需要的迭代次数根据模型的不同而不同,我们不能提前预知,我们可以绘制迭代次数和代价函数的图表来观测算法在何时趋于收敛。

Stanford机器学习 第二周:多变量线性回归_第5张图片

从图中可以看出迭代300次后,基本不再减小了,可以认为是收敛了。

下图所示的没法收敛,解决办法:减小学习率

Stanford机器学习 第二周:多变量线性回归_第6张图片

Stanford机器学习 第二周:多变量线性回归_第7张图片

5 特征选择、多项式回归

房屋价格预测问题,在选择特征时选临街宽度(frontage)和深度(depth)两个特征就不如选择房屋面积(frontage*depth)一个特征

Stanford机器学习 第二周:多变量线性回归_第8张图片

在选择多项式进行拟合时,以房屋价格预测为例,收集的数据集如下图所示,如果选择二次多项式进行拟合,就会出现房价达到最大值后开始随着房屋面积的增大而减小,这时可以考虑用三次多项式进行拟合

Stanford机器学习 第二周:多变量线性回归_第9张图片

或者采用下边开根号的方式进行拟合

Stanford机器学习 第二周:多变量线性回归_第10张图片

6 标准方程(normal equation)

一种求中参数θ的方法是:用分别对各个参数θ求偏导,并令偏导数为0,解出各个参数θ的值。

Stanford机器学习 第二周:多变量线性回归_第11张图片

通过标准方程可以解得,具体解法如下:

Stanford机器学习 第二周:多变量线性回归_第12张图片

在Octave或者Matlab里命令为:pinv(X'*X)*X'*y

m个训练样本,n个特征时,梯度下降与标准方程的对比如下:

Stanford机器学习 第二周:多变量线性回归_第13张图片

通过对比可以看出:表面上标准方程法比较方便一些,但是当n很大时计算就会比较慢。一般而言,n<10000时考虑标准方程法,n>10000时考虑梯度下降法。

对于以后要学到的更复杂的算法比如分类算法、逻辑回归算法,不能使用标准方程法,对于更复杂的学习算法我们不得不使用梯度下降法。因此,梯度下降法是一个非常有用的算法,可以用于有大量特征的线性回归问题。对于特定的线性回归问题,特征量不是特别大的时候,标准方程法是一个比梯度下降法更快的算法。

7 标准方程及不可逆性(选修)

,一般来说很少出现不可逆的情况,不可逆时也成奇异矩阵或者退化矩阵

在Octave里,有两个函数可以求解矩阵的逆,一个被称为pinv(),另一个是inv(),这两者之间的差异是些许计算过程上的,一个是所谓的伪逆,另一个被称为逆。使用pinv() 函数可以展现数学上的过程,这将计算出θ的值,即便矩阵X'X是不可逆的。

确实不可逆时,可以考虑减少特征

Stanford机器学习 第二周:多变量线性回归_第14张图片

比如图中存在线性关系,可以删除特征。假设训练集m=10,而特征n=100,这时就得考虑减少特征量了。首先应该通过观察所有特征检查是否有多余的特征,如果有多余的就删除掉,直到他们不再是多余的为止,如果特征数量实在太多,可以删除些特征,用较少的特征来反映尽可能多内容,否则考虑使用正规化方法(之后会讲到)。

你可能感兴趣的:(机器学习)