机器学习基础 - [第二章:多变量线性回归](2)多元线性回归模型的梯度下降算法技巧

1、多元线性回归模型在使用梯度下降可能会遇到什么样的问题?

多元性线性回归具有多个特征 { x 1 , x 2 , . . . , x n } \{x_{1},x_{2},...,x_{n}\} {x1,x2,...,xn},当某些特征的取值范围差异很大时,梯度下降法可能要经过一段很长的时间才能收敛到局部最优值,如图1左边所示:
机器学习基础 - [第二章:多变量线性回归](2)多元线性回归模型的梯度下降算法技巧_第1张图片
但是,如果这些特征这些特征的值在一个比较相似的范围,收敛速度就会很快。所以,当特征取值差距比较明显,为了加快收敛速度,我们需要用到特征缩放技巧。

2、特征缩放(Feature Scaling)

特征缩放,指的是将每一个特征的取值都映射到某个区间内,一般来讲,区间为[-1,1],图1右半部分就将 x 1 x_{1} x1 x 2 x_{2} x2的取值映射到了0-1范围内

3、选择特征缩放的条件?

一般在以下情况下,我们会选择尺度缩放:
(1)学习算法选用的是梯度下降算法;
(2)特征的取值相差太大;

那么,对于(2)而言,什么样的取值算相差太大呢,下图2给出了一些经验,其中✔的表示是可以接受的,而打叉的是不能接受的,而且需要注意的是,特征的取值范围不一定要求非得在-1-1之间,只要它们足够的相近即可,这样梯度下降就能正常工作:
机器学习基础 - [第二章:多变量线性回归](2)多元线性回归模型的梯度下降算法技巧_第2张图片

4、特征缩放有哪些方法?

特征缩放的方法有以下几种:
(1)除以最大值(取值为正):这样可以把特征的取值映射到(0,1)
(2)均值归一化: x i − u s i \frac{x_{i}-u}{s_{i}} sixiu其中,
u表示特征 x i x_{i} xi的均值, s i s_{i} si的可以是 x i x_{i} xi的最大值、取值范围,或者是标准差。
机器学习基础 - [第二章:多变量线性回归](2)多元线性回归模型的梯度下降算法技巧_第3张图片

你可能感兴趣的:(机器学习算法)