验证系列-机器学习中,为什么要进行数据标准化或者归一化?

机器学习中,为什么要进行数据标准化或者归一化?

  • 应用条件
  • 原理分析
  • 实例佐证

应用条件

我们在翻阅各种资料时,在数据预处理步骤,经常会看到对数据进行标准化或者归一化,那么这么做的好处是什么?

1、这样处理后加快了梯度下降求最优解的速度;
2、有可能提高精度;

但是,理解这句话后,你会发现,这是有应用条件的,即:
1、适用于用梯度下降法求参数的算法;
2、适用于基于距离的算法;

比如树模型这种基于概率的,是没有作用的。

原理分析

1、为什么这样处理后加快了梯度下降求最优解的速度?
原因很简单,比如我们有这样一个2元线性回归方程:

h θ ( x ) = θ 0 + θ 1 x 1 + θ 2 x 2 h_\theta(x) = \theta_0 + \theta_1x_1 + \theta_2x_2 hθ(x)=θ0+θ1x1+θ2x2
斯坦福机器学习视频做了很好的解释:https://class.coursera.org/ml-003/lecture/21

如下图所示,蓝色的圈圈图代表的是两个特征的等高线。其中左图两个特征X1和X2的区间相差非常大,X1区间是[0,2000],X2区间是[1,5],其所形成的等高线非常尖。当使用梯度下降法寻求最优解时,很有可能走“之字型”路线(垂直等高线走),从而导致需要迭代很多次才能收敛;

而右图对两个原始特征进行了归一化,其对应的等高线显得很圆,在梯度下降进行求解时能较快的收敛。
因此如果机器学习模型使用梯度下降法求最优解时,归一化往往非常有必要,否则很难收敛甚至不能收敛。
验证系列-机器学习中,为什么要进行数据标准化或者归一化?_第1张图片

2、为什么有可能提高精度?

一些机器学习算法需要计算样本之间的距离(如欧氏距离),例如 KNN、K-means 等。如果一个特征值域范围非常大,那么距离计算就主要取决于这个特征,其他特征的影响就会很低,但是假如这时实际情况是值域范围小的特征更重要,那么最终模型的效果就会变差。

实例佐证

sklearn里面生成的数据集本身量纲就差不多,效果不明显,这里上秦秉丰机器学习里的数据集:


import numpy as np
x = np.array([[-1.7612000e-02,  1.4053064e+01],
       [-1.3956340e+00,  4.6625410e+00],
       [-7.5215700e-01,  6.5386200e+00],
       [-1.3223710e+00,  7.1528530e+00],
       [ 4.2336300e-01,  1.1054677e+01],
       [ 4.0670400e-01,  7.0673350e+00],
       [ 6.6739400e-01,  1.2741452e+01],
       [-2.4601500e+00,  6.8668050e+00],
       [ 5.6941100e-01,  9.5487550e+00],
       [-2.6632000e-02,  1.0427743e+01],
       [ 8.5043300e-01,  6.9203340e+00],
       [ 1.3471830e+00,  1.3175500e+01],
       [ 1.1768130e+00,  3.1670200e+00],
       [-1.7818710e+00,  9.0979530e+00],
       [-5.6660600e-01,  5.7490030e+00],
       [ 9.3163500e-01,  1.5895050e+00],
       [-2.4205000e-02,  6.1518230e+00],
       [-3.6453000e-02,  2.6909880e+00],
       [-1.9694900e-01,  4.4416500e-01],
       [ 1.0144590e+00,  5.7543990e+00],
       [ 1.9852980e+00,  3.2306190e+00],
       [-1.6934530e+00, -5.5754000e-01],
       [-5.7652500e-01,  1.1778922e+01],
       [-3.4681100e-01, -1.6787300e+00],
       [-2.1244840e+00,  2.6724710e+00],
       [ 1.2179160e+00,  9.5970150e+00],
       [-7.3392800e-01,  9.0986870e+00],
       [-3.6420010e+00, -1.6180870e+00],
       [ 3.1598500e-01,  3.5239530e+00],
       [ 1.4166140e+00,  9.6192320e+00],
       [-3.8632300e-01,  3.9892860e+00],
       [ 5.5692100e-01,  8.2949840e+00],
       [ 1.2248630e+00,  1.1587360e+01],
       [-1.3478030e+00, -2.4060510e+00],
       [ 1.1966040e+00,  4.9518510e+00],
       [ 2.7522100e-01,  9.5436470e+00],
       [ 4.7057500e-01,  9.3324880e+00],
       [-1.8895670e+00,  9.5426620e+00],
       [-1.5278930e+00,  1.2150579e+01],
       [-1.1852470e+00,  1.1309318e+01],
       [-4.4567800e-01,  3.2973030e+00],
       [ 1.0422220e+00,  6.1051550e+00],
       [-6.1878700e-01,  1.0320986e+01],
       [ 1.1520830e+00,  5.4846700e-01],
       [ 8.2853400e-01,  2.6760450e+00],
       [-1.2377280e+00,  1.0549033e+01],
       [-6.8356500e-01, -2.1661250e+00],
       [ 2.2945600e-01,  5.9219380e+00],
       [-9.5988500e-01,  1.1555336e+01],
       [ 4.9291100e-01,  1.0993324e+01],
       [ 1.8499200e-01,  8.7214880e+00],
       [-3.5571500e-01,  1.0325976e+01],
       [-3.9782200e-01,  8.0583970e+00],
       [ 8.2483900e-01,  1.3730343e+01],
       [ 1.5072780e+00,  5.0278660e+00],
       [ 9.9671000e-02,  6.8358390e+00],
       [-3.4400800e-01,  1.0717485e+01],
       [ 1.7859280e+00,  7.7186450e+00],
       [-9.1880100e-01,  1.1560217e+01],
       [-3.6400900e-01,  4.7473000e+00],
       [-8.4172200e-01,  4.1190830e+00],
       [ 4.9042600e-01,  1.9605390e+00],
       [-7.1940000e-03,  9.0757920e+00],
       [ 3.5610700e-01,  1.2447863e+01],
       [ 3.4257800e-01,  1.2281162e+01],
       [-8.1082300e-01, -1.4660180e+00],
       [ 2.5307770e+00,  6.4768010e+00],
       [ 1.2966830e+00,  1.1607559e+01],
       [ 4.7548700e-01,  1.2040035e+01],
       [-7.8327700e-01,  1.1009725e+01],
       [ 7.4798000e-02,  1.1023650e+01],
       [-1.3374720e+00,  4.6833900e-01],
       [-1.0278100e-01,  1.3763651e+01],
       [-1.4732400e-01,  2.8748460e+00],
       [ 5.1838900e-01,  9.8870350e+00],
       [ 1.0153990e+00,  7.5718820e+00],
       [-1.6580860e+00, -2.7255000e-02],
       [ 1.3199440e+00,  2.1712280e+00],
       [ 2.0562160e+00,  5.0199810e+00],
       [-8.5163300e-01,  4.3756910e+00],
       [-1.5100470e+00,  6.0619920e+00],
       [-1.0766370e+00, -3.1818880e+00],
       [ 1.8210960e+00,  1.0283990e+01],
       [ 3.0101500e+00,  8.4017660e+00],
       [-1.0994580e+00,  1.6882740e+00],
       [-8.3487200e-01, -1.7338690e+00],
       [-8.4663700e-01,  3.8490750e+00],
       [ 1.4001020e+00,  1.2628781e+01],
       [ 1.7528420e+00,  5.4681660e+00],
       [ 7.8557000e-02,  5.9736000e-02],
       [ 8.9392000e-02, -7.1530000e-01],
       [ 1.8256620e+00,  1.2693808e+01],
       [ 1.9744500e-01,  9.7446380e+00],
       [ 1.2611700e-01,  9.2231100e-01],
       [-6.7979700e-01,  1.2205300e+00],
       [ 6.7798300e-01,  2.5566660e+00],
       [ 7.6134900e-01,  1.0693862e+01],
       [-2.1687910e+00,  1.4363200e-01],
       [ 1.3886100e+00,  9.3419970e+00],
       [ 3.1702900e-01,  1.4739025e+01]])


y= np.array([0., 1., 0., 0., 0., 1., 0., 1., 0., 0., 1., 0., 1., 0., 1., 1., 1.,
       1., 1., 1., 1., 1., 0., 1., 1., 0., 0., 1., 1., 0., 1., 1., 0., 1.,
       1., 0., 0., 0., 0., 0., 1., 1., 0., 1., 1., 0., 1., 1., 0., 0., 0.,
       0., 0., 0., 1., 1., 0., 1., 0., 1., 1., 1., 0., 0., 0., 1., 1., 0.,
       0., 0., 0., 1., 0., 1., 0., 0., 1., 1., 1., 1., 0., 1., 0., 1., 1.,
       1., 1., 0., 1., 1., 1., 0., 0., 1., 1., 1., 0., 1., 0., 0.])

再用我们写好的逻辑回归类:
链接: 手写算法-python代码实现逻辑回归(带L1、L2正则项)

class LogisticRegression:
    
    #默认没有正则化,正则项参数默认为1,学习率默认为0.001,迭代次数为10001次
    def __init__(self,penalty = None,Lambda = 1,a = 0.001,epochs = 10001):
        self.W = None
        self.penalty = penalty
        self.Lambda = Lambda
        self.a = a
        self.epochs =epochs
        self.sigmoid = lambda x:1/(1 + np.exp(-x))
        
    def loss(self,x,y):
        m=x.shape[0]
        y_pred = self.sigmoid(x * self.W)
        return (-1/m) * np.sum((np.multiply(y, np.log(y_pred)) + np.multiply((1-y),np.log(1-y_pred))))
    
    def fit(self,x,y):
        lossList = []
        #计算总数据量
        m = x.shape[0]
        #给x添加偏置项
        X = np.concatenate((np.ones((m,1)),x),axis = 1)
        #计算总特征数
        n = X.shape[1]
        #初始化W的值,要变成矩阵形式
        self.W = np.mat(np.ones((n,1)))
        #X转为矩阵形式
        xMat = np.mat(X)
        #y转为矩阵形式,这步非常重要,且要是m x 1的维度格式
        yMat = np.mat(y.reshape(-1,1))
        #循环epochs次
        for i in range(self.epochs):
            #预测值
            h = self.sigmoid(xMat * self.W)
            gradient = xMat.T * (h - yMat)/m
            
            
            #加入l1和l2正则项,和之前的线性回归正则化一样
            if self.penalty == 'l2':
                gradient = gradient + self.Lambda * self.W
            elif self.penalty == 'l1':
                gradient = gradient + self.Lambda * np.sign(self.W)
          
            self.W = self.W-self.a * gradient
            if i % 50 == 0:
                lossList.append(self.loss(xMat,yMat))
        #返回系数,和损失列表
        return self.W,lossList

没有做标准化前:


lr = LogisticRegression()
w,lossList = lr.fit(x,y)
#这里感觉其实处理x,y不应该放在封装好的类里面处理,应该拿出来,作为全局变量使用,优化点
m=x.shape[0]
X = np.concatenate((np.ones((m,1)),x),axis=1)
xMat = np.mat(X)
y_pred = [1 if x>=0.5 else 0 for x in lr.sigmoid(xMat*w)]

from sklearn.metrics import classification_report
print(classification_report(y,y_pred))

验证系列-机器学习中,为什么要进行数据标准化或者归一化?_第2张图片

做标准化之后:

from sklearn import preprocessing 
x_1 = preprocessing.scale(x)

lr = LogisticRegression()
w,lossList = lr.fit(x_1,y)
#这里感觉其实处理x,y不应该放在封装好的类里面处理,应该拿出来,作为全局变量使用,优化点
m=x_1.shape[0]
X = np.concatenate((np.ones((m,1)),x_1),axis=1)
xMat = np.mat(X)
y_pred = [1 if x>=0.5 else 0 for x in lr.sigmoid(xMat*w)]

from sklearn.metrics import classification_report
print(classification_report(y,y_pred))

验证系列-机器学习中,为什么要进行数据标准化或者归一化?_第3张图片

性能确实有了提高。

你可能感兴趣的:(随笔,python,机器学习,数据分析)