【数据科学家学习小组】之机器学习第一期第三周作业

无量纲化(nondimensionalize 或者dimensionless)是通过一个合适的变量替代,将一个涉及物理量的方程的部分或全部的单位移除。归一化是无量纲化的一种方式,思路是把所有数据都映射到同一尺度实现去量纲的目的,常用的归一化有两种分别为最值归一化(normalization)均值方差归一化(standardization)

最值归一化(normalization):把所有的数据映射到0-1之间,数学表达式为,在python中的实现

import numpy as np
x = np.random.randint(0, 100, size = 100)
# 最值归一化
(x-np.min(x))/(np.max(x)-np.min(x))

由此可见,最值归一化适用于分布有明显边界的情况,即特征的取值范围是在一定区间内的,比如考试分数在0-100分之间;RGB图像系统R,G,B的值都介于0-255之间。这种方法最大的缺陷就是受极端数据值(outlier)影响比较大 。

均值方差归一化(standardization):是把所有数据归一到均值为0方差为1的分布中,数学表达式为,在python中的代码实现

import numpy as np
# 生成一个有50个元素的二维数组
x = np.random.randint(0, 100, (50,2)) # .randint有四个参数分别为(low, high(可选), size(随机数的个数和样式,默认为1,可以为int也可以为tuple),dtype(格式,默认为np.int))
# 将数据转换为浮点数据
x = np.array(x, dtype=float)

# 均值方差归一化
x[:,0] = (x[:,0]-np.mean(x[:,0]))/np.std(x[:,0])
x[:,1] = (x[:,1]-np.mean(x[:,1]))/np.std(x[:,1])

这种归一化的方法不再局限于要求数据有明显边界,同时也可以很好消除极端数据值的影响。并不一定在0-1之间,但是所有数据归一化后均值为0,方差为1,此归一化方法的主推方法。

StandardScaler是sklearn中封装的专门用于数据归一化处理的类。上一周的学习中,我们得知建模时要将数据集划分为训练数据集&测试数据集,对训练数据集进行归一化处理需要计算出训练数据集的均值mean_train和方差std_train。对测试数据集进行归一化时,由于测试数据模拟的是真实环境,可能无法得到均值和方差,我们可以一般是使用均值mean_train和方差std_train,按照公式(x_test - mean_train) / std_train进行归一化。

from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.discriminant_analysis import StandardScaler
# 加载鸢尾花数据集
iris = datasets.load_iris()
x = iris.data
y = iris.target
'''归一化之前先划分训练集和数据集'''
x_train,x_test,y_train,y_test = train_test_split(iris.data, iris.target, test_size = 0.2, random_state=666)

standardscaler = StandardScaler()
# 归一化的过程跟训练模型一样
standardscaler.fit(x_train)
standardscaler.mean_#四个特征相应均值(由用户传入变量计算出来的变量)
standardscaler.scale_#相当于标准差,用于描述数据分布离散范围
# 使用transform
x_train_standard=standardscaler.transform(x_train)#返回归一化后的矩阵,x_train本身没变
'''此时只需要传入测试集即可利用训练集的保存信息进行测试集的归一化'''
x_test_standard = standardscaler.transform(x_test)

你可能感兴趣的:(【数据科学家学习小组】之机器学习第一期第三周作业)