非监督学习——特征缩放

特征缩放:

1、一种重缩放此类特征的方法。

2、公式:{x}' = \frac{x - x_{min}}{x_{max} - x_{min}}, {x}'\in [0,1]

3、要思考的问题:如果 x_max 和 x_min 相同怎么办?例如,假设输入特征的列表是 [10, 10, 10]——分母将为零。我们的建议是通常为每个新特征指定 0.5(0.0 和 1.0 中间),但这实际上由你自己决定。要点是,这个公式可能会有问题。

4、使用 RBF 核函数的 SVM和K-均值聚类机器学习算法会受到特征缩放的影响

5、https://scikit-learn.org/stable/modules/preprocessing.html

>>> from sklearn import preprocessing
>>> import numpy as np
>>> X_train = np.array([[ 1., -1.,  2.],
...                     [ 2.,  0.,  0.],
...                     [ 0.,  1., -1.]])
...
>>> min_max_scaler = preprocessing.MinMaxScaler()
>>> X_train_minmax = min_max_scaler.fit_transform(X_train)
>>> X_train_minmax
array([[0.5       , 0.        , 1.        ],
       [1.        , 0.5       , 0.33333333],
       [0.        , 1.        , 0.        ]])

 

你可能感兴趣的:(非监督学习)