#几种归一化方法:python实现
标签:数学
数据归一化问题是数据挖掘中特征向量表达时的重要问题,当不同的特征成列在一起的时候,由于特征本身表达方式的原因而导致在绝对数值上的小数据被大数据“吃掉”的情况,这个时候我们需要做的就是对抽取出来的features vector进行归一化处理,以保证每个特征被分类器平等对待。
下面我描述几种常见的Normalization Method,并提供相应的python实现(其实很简单)
这是最简单也是最容易想到的方法,通过遍历feature vector里的每一个数据,将Max和Min的记录下来,并通过Max-Min作为基数(即Min=0,Max=1)进行数据的归一化处理:
xnormalization=x−MinMax−Min {x}_{normalization}=\frac{x-Min}{Max-Min}xnormalization=Max−Minx−Min
def MaxMinNormalization(x,Max,Min):
x = (x - Min) / (Max - Min);
return x;
找大小的方法直接用np.max()
和np.min()
就行了,尽量不要用python内建的max()和min(),除非你喜欢用List.
可以试试np.argsort()
和 np.argmax()
这种方法给予原始数据的均值(mean)和标准差(standard deviation)进行数据的标准化。
经过处理的数据符合标准正态分布,即均值为0,标准差为1,这里的关键在于复合标准正态分布,个人认为在一定程度上改变了特征的分布,关于使用经验上欢迎讨论,转化函数为:
xnormalization=x−μσ{x}_{normalization}=\frac{x-\mu }{\sigma }xnormalization=σx−μ
def Z_ScoreNormalization(x,mu,sigma):
x = (x - mu) / sigma;
return x;
这里一样,mu(即均值)用np.average()
,sigma(即标准差)用np.std()
即可.
Sigmoid函数是一个具有S形曲线的函数,是良好的阈值函数,在(0, 0.5)处中心对称,在(0, 0.5)附近有比较大的斜率而当数据趋向于正无穷和负无穷的时候,映射出来的值就会无限趋向于1和0.
个人非常喜欢的“归一化方法”,之所以打引号是因为我觉得Sigmoid函数在阈值分割上也有很不错的表现,根据公式的改变,就可以改变分割阈值,这里作为归一化方法,我们只考虑(0, 0.5)作为分割阈值的点的情况:
xnormalization=11+e−x{x}_{normalization}=\frac{1}{1+{e}^{-x}}xnormalization=1+e−x1
def sigmoid(X,useStatus):
if useStatus:
return 1.0 / (1 + np.exp(-float(X)))
else:
return float(X)
这里useStatus管理是否使用sigmoid的状态,方便调试使用
def normalize(v):
norm = np.linalg.norm(v)
if norm == 0:
return v
return v / norm
### two
import numpy as np
from sklearn.preprocessing import normalize
x = np.random.rand(1000)*10
norm1 = x / np.linalg.norm(x)
norm2 = normalize(x[:,np.newaxis], axis=0).ravel()
print np.all(norm1 == norm2)
# True
原始链接
如果你有什么疑问或者想要转载,没有允许是不能转载的哈
赞赏一下能不能转?哈哈,联系我啊,我告诉你呢 ~~
欢迎联系我哈,我会给大家慢慢解答啦~~~怎么联系我? 笨啊~ ~~ 你留言也行
你关注微信公众号1.机器学习算法工程师:2.或者扫那个二维码,后台发送 “我要找朕”,联系我也行啦!
(爱心.gif) 么么哒 ~么么哒 ~么么哒
码字不易啊啊啊,如果你觉得本文有帮助,三毛也是爱!