机器学习(吴恩达)-4

之前我们所用预测的函数值只有一个变量,也就是单特征,接下来我们要用到多特征来预测目标函数

机器学习(吴恩达)-4_第1张图片

机器学习(吴恩达)-4_第2张图片

我们的线性回归问题就应该扩充到四个变量这里来

 这就是所谓的多元线性回归,\Theta _0后面一般会跟一个X_0且设置为1为了匹配上向量,让两个可以互为向量做乘法

值得注意的是,如果你的特征取值很接近,以两个为例,那么它收敛的速度非常快,很快能取到局部最优解。反过来,如果他们取值相差过大,一个在1000到2000取值,一个在0到5取值,那么他们的收敛会非常慢

机器学习(吴恩达)-4_第3张图片

针对以上这种情况,我们就要对数据进行预处理,常用的手段有均值化,归一化等等,目的就是让不同特征的取值接近。 

 

机器学习(吴恩达)-4_第4张图片机器学习(吴恩达)-4_第5张图片 

\mu _1指的是这个特征的平均值,而s_1值的是这个特征的范围,即最大值减去最小值。

通过使用这个方法,你可以让梯度下降的速度更快,迭代的次数更少,提高计算效率。不同的问题,他们的迭代次数也不是一样的。另外,并不是每一次迭代都会下降,有可能出现上升下降循环反复的情况。

接下来,我们学习多项式回归。 

机器学习(吴恩达)-4_第6张图片 

同样的,使用梯度下降法来迭代,接下来的正规方程只需要一次就可以得到结果。

以四个样本的普通训练集为例

机器学习(吴恩达)-4_第7张图片 

机器学习(吴恩达)-4_第8张图片 

 

机器学习(吴恩达)-4_第9张图片 

 

如果这样做,那么你就不需要进行特征缩放。

当然,我们知道,在计算逆矩阵的时候,通常以矩阵维度的三次方增长,当然,而逆矩阵那一项是n*n的维度,因此代价会相当之大。下面是两个方法的对比。

机器学习(吴恩达)-4_第10张图片 

X^{T}X不可逆时,也称奇异矩阵或退化矩阵。

机器学习(吴恩达)-4_第11张图片 

 

包含了多余的特征,即有两个特征线性相关时候即不可逆。 

你可能感兴趣的:(人工智能,算法)