Sklearn-scaler对比

原始数据分布:
Sklearn-scaler对比_第1张图片

  • StandardScaler:通过减去均值,除以标准差。异常数据对均值和方差的影响很大,会导致特征数据范围缩小 z = ( x − u ) s z = \frac{(x - u)}{ s} z=s(xu)

Sklearn-scaler对比_第2张图片

  • MinMaxScaler将所有数据归一化到[0,1]区间内,但是由于异常值的影响,特征数据的分布范围变得很窄。与standardscalar一样,对异常值铭感 X s t d = ( X − X . m i n ) ( X . m a x ( a x i s = 0 ) − X . m i n ( a x i s = 0 ) ) X_{std} = \frac{(X - X.min)} {(X.max(axis=0) - X.min(axis=0))} Xstd=(X.max(axis=0)X.min(axis=0))(XX.min) X s c a l e d = X s t d ∗ ( m a x − m i n ) + m i n X_{scaled} = X_{std} * (max - min) + min Xscaled=Xstd(maxmin)+min

Sklearn-scaler对比_第3张图片

MaxAbsScaler,将数据压缩到了[-1,1]区间内,对异常值敏感 X = X ∣ X ∣ . m a x X=\frac{X}{|X|.max} X=X.maxX

Sklearn-scaler对比_第4张图片

RobustScaler和前面三个方法不同,对异常值不敏感$$$$

Sklearn-scaler对比_第5张图片

PowerTransformer$$$$
Sklearn-scaler对比_第6张图片

Sklearn-scaler对比_第7张图片

QuantileTransformer (Gaussian output)$$$$
Sklearn-scaler对比_第8张图片

QuantileTransformer (uniform output)
Sklearn-scaler对比_第9张图片

Normalizer

Sklearn-scaler对比_第10张图片

你可能感兴趣的:(机器学习)