1.吴恩达机器学习课程笔记:多元梯度下降法

1.吴恩达机器学习课程笔记:多元梯度下降法

笔记来源:吴恩达机器学习课程笔记:多元梯度下降法

仅作为个人学习笔记,若各位大佬发现错误请指正

1.1 多元特征(变量)

1.吴恩达机器学习课程笔记:多元梯度下降法_第1张图片
每一列代表一个特征,例如:房屋大小、卧室数量、楼层数、房屋年龄, n n n代表特征数量
每一行代表一个样本,例如:第二个样本 x ( 2 ) = [ 1416 , 3 , 2 , 40 ] T x^{(2)}=[1416,3,2,40]^T x(2)=[1416,3,2,40]T,第 i i i个训练样本 x ( i ) x^{(i)} x(i) m m m代表样本容量
x j ( i ) x^{(i)}_j xj(i)代表第 i i i个样本中的第 j j j个特征

1.2 多元特征的假设函数

1.吴恩达机器学习课程笔记:多元梯度下降法_第2张图片
为了方便形式简洁,我们把假设函数写为向量内积形式,这样也方便我们直接使用线性代数的函数库

1.3 多元梯度下降法

1.吴恩达机器学习课程笔记:多元梯度下降法_第3张图片
左侧当特征个数为1时的梯度下降法,右侧当特征个数大于等于1时的梯度下降法

1.4 特征缩放:归一化

笔记来源:多元梯度下降法演练.I.–.特征缩放

因特征的不同,特征的值的范围也不同,这会导致梯度下降会非常缓慢,我们对特征进行处理,将所有特征都归一化处理,将特征的值都处理到同一个较小范围内,这样在进行梯度下降就会比处理前会快速很多
1.吴恩达机器学习课程笔记:多元梯度下降法_第4张图片
左侧是未对特征进行处理的情况,这种情况等高线整体上会比较细长,梯度下降时较缓慢
右侧是对特征进行缩放的情况,这种情况等高线整体上会比较圆润,梯度下降时较快速

缩放的范围可以大致定为 [ − 1 , 1 ] [-1,1] [1,1]也可以根据具体情况自行决定
1.吴恩达机器学习课程笔记:多元梯度下降法_第5张图片

1.5 特征缩放:均值归一化

另一种特征缩放的方法:均值归一化(这种方法类似于将随机变量标准化的过程)
1.吴恩达机器学习课程笔记:多元梯度下降法_第6张图片
可以先行计算出每个特征的均值 μ i \mu_i μi,和特征的值的范围 S i S_i Si(最大值-最小值)
x i = x i − μ i S i x_i=\frac{x_i-\mu_i}{S_i} xi=Sixiμi
根据上式对每一个特征中的每一个值进行均值归一化处理
1.吴恩达机器学习课程笔记:多元梯度下降法_第7张图片

1.6 学习率大小对多元梯度下降的影响

笔记来源:多元梯度下降法II.–.学习率

通过迭代步数–代价函数值函数图像,我们可以判断梯度下降是否最终收敛了,理想情况是随着迭代步数的增大,代价函数值随之下降,在自动收敛检测中,我们大致认为当代价函数值小于等于 1 0 − 3 10^{-3} 103时,梯度下降就达到了收敛。一般选择一个合适的阈值还是很困难的,为了检查梯度下降算法是否收敛,通常情况下我们可以直接看下面这种图像,而不去进行自动收敛检测。
1.吴恩达机器学习课程笔记:多元梯度下降法_第8张图片

学习率太小,则收敛速度较慢
学习率太大,则可能不是每次迭代代价都会下降,也可能不会收敛

学习率我们可以选取
0.0001 , 0.001 , 0.01 , 0.1 0.0001,0.001,0.01,0.1 0.00010.0010.010.1 每次扩大10倍来观察效果
也可取 0.0003 , 0.003 , 0.03 , 0.3 0.0003,0.003,0.03,0.3 0.00030.0030.030.3

1.7 多项式回归

笔记来源:特征和多项式回归

有时可以通过原有特征来定义新特征的方法来获得较好或教简单的模型,也可以只选其中一些特征,所以说其实并不是所有特征都要采用,我们可以只采用其中一些特征,之后我们会学习到一些算法,它们会自动选择使用什么特征
1.吴恩达机器学习课程笔记:多元梯度下降法_第9张图片
我们最终目的是通过这些已有特征来预测房价,我们可以根据生活中关于房价的经验来选择较为合适的模型,比如:起初我们选择了二次函数作为模型,但我们知道二次函数是凹或凸的,房子越大,房价理应越高,不会呈现出类似二次函数的形状,这里我们就应该做出调整,选用三次函数作为模型,当然也可以选用其他合适模型,诸如此类。之后我们会学习到一些算法,它们会根据已有数据选择较为合适的模型。

1.吴恩达机器学习课程笔记:多元梯度下降法_第10张图片

你可能感兴趣的:(机器学习基础,多元梯度下降,特征缩放,归一化,均值归一化)