1、独热编码(OneHotEncoder)
有一些特征并不是以连续值的形式给出。例如以下三个特征属性:
人的性别 [“male”, “female”],
来自的国家 [“from Europe”, “from US”, “from Asia”],
使用的浏览器[“uses Firefox”, “uses Chrome”, “uses Safari”, “uses Internet Explorer”]。
这种特征可以采用整数的形式进行编码,即特征数字化,如:
[“male”, “from US”, “uses Internet Explorer”] 可表示成 [0, 1, 3] ,
[“female”, “from Asia”, “uses Chrome”] 可表示成[1, 2, 1]
但是,这些整数形式的表示不能直接作为某些机器学习算法输入,因为有些机器学习算法是需要连续型的输入数据,同一列数据之间数值的大小可代表差异程度。如: [0, 1, 3]与[0,1,0]的特征差异比[0, 1, 3]与[0,1,2]之间的差异要大,但事实上它们的差异是一样的,都是浏览器使用不一样。
一个解决办法就是采用OneHotEncoder,这种表示方式将每一个分类特征变量的m个可能的取值转变成m个二值特征,对于每一条数据这m个值中仅有一个特征值为1,其他的都为0。
from sklearn import preprocessing
enc = preprocessing.OneHotEncoder()
enc.fit([[0, 0, 3], [1, 1, 0], [0, 2, 1], [1, 0, 2]]) # fit来学习编码
enc.transform([[0, 1, 3]]).toarray() # 进行编码
#输出 array([[ 1., 0., 0., 1., 0., 0., 0., 0., 1.]])
说明如下:
数据矩阵是4*3,即4个数据,3个特征维度
第一列[0,1,0,1]作为第一个特征纬度,有数据0、1, 所以对应编码方式为10 、01
第二列[0,1,2,0]作为第二个特征纬度,有数据0、1、2, 所以对应编码方式为100 、010、001
第三列[3,0,1,2]作为第三个特征纬度,有数据0、1、2、3, 所以对应编码方式为1000 、0100、0010、0001
因此[0, 1, 3]的编码输出结果为:
10 010 0001
2、标签编码(LabelEncoder)
LabelEncoder是用来对分类型特征值进行编码,即对不连续的数值或文本进行编码。其中包含以下常用方法:
fit(y) :fit可看做一本空字典,y可看作要塞到字典中的词。
fit_transform(y):相当于先进行fit再进行transform,即把y塞到字典中去以后再进行transform得到索引值。
inverse_transform(y):根据索引值y获得原始数据。
transform(y) :将y转变成索引值。
# coding:utf-8
from sklearn import preprocessing
le = preprocessing.LabelEncoder()
le.fit(["Japan", "china", "Japan", "Korea","china"])
print('标签个数:%s' % le.classes_)
print('标签值标准化:%s' % le.transform(["Japan", "china", "Japan", "Korea","china"]))
print('标准化标签值反转:%s' % le.inverse_transform([0, 2 ,0 ,1 ,2]))
# 标签个数:['Japan' 'Korea' 'china']
# 标签值标准化:[0 2 0 1 2]
# 标准化标签值反转:['Japan' 'china' 'Japan' 'Korea' 'china']