什么是独热码

        独热编码看了不少解释,但是通俗易懂的帖子很少,根据自己的理解写一篇自认为较好理解的。

       编码过程:

  假如只有一个特征是离散值:

    {sex:{male, female,other}}

  该特征总共有3个不同的分类值,此时需要3个bit位表示该特征是什么值,对应bit位为1的位置对应原来的特征的值(一般情况下可以将原始的特征的取值进行排序,以便于后期使用),此时得到独热码为{100}男性 ,{010}女性,{001}其他

  假如多个特征需要独热码编码,那么久按照上面的方法依次将每个特征的独热码拼接起来:

    {sex:{male, female,other}}

    {grade:{一年级, 二年级,三年级, 四年级}}

  此时对于输入为{sex:male; grade: 四年级}进行独热编码,可以首先将sex按照上面的进行编码得到{100},然后按照grade进行编码为{0001},那么两者连接起来得到最后的独热码{1000001};

  展示网上常见例子:

 

["male", "female"]    注意这是第一个特征,有两种值(0: 10, 1: 01)

["from Europe", "from US", "from Asia"]    第二个特征,有三种值(0: 100, 1: 010, 2: 001)

["uses Firefox", "uses Chrome", "uses Safari", "uses Internet Explorer"] 第三个特征四种值(0: 1000, 1: 0100, 2: 0010, 3: 0001)

如果将上述特征用数字表示,效率会高很多。例如:

["male", "from US", "uses Internet Explorer"] 表示为[0, 1, 3]    注意这里的"0"代表["male", "female"] 中的"male","1"代表["from Europe", "from US", "from Asia"] 中的"from US",“3”代表["uses Firefox", "uses Chrome", "uses Safari", "uses Internet Explorer"] 中的"uses Internet Explorer"   

["female", "from Asia", "uses Chrome"]表示为[1, 2, 1]

但是,即使转化为数字表示后,上述数据也不能直接用在我们的分类器中。因为,分类器往往默认数据数据是连续的(可以计算距离?),并且是有序的(而上面这个0并不是说比1要高级)。但是,按照我们上述的表示,数字并不是有序的,而是随机分配的。

举例

基于Scikit-learn的例子:

from sklearn import preprocessing

enc = preprocessing.OneHotEncoder()

enc.fit([[0, 0, 3], [1, 1, 0], [0, 2, 1], [1, 0, 2]])

enc.transform([[0, 1, 3]]).toarray()

输出结果:

array([[ 1.,  0.,  0.,  1.,  0.,  0.,  0.,  0.,  1.]])

Note: fit了4个数据3个特征,而transform了1个数据3个特征。第一个特征两种值(0: 10, 1: 01),第二个特征三种值(0: 100, 1: 010, 2: 001),第三个特征四种值(0: 1000, 1: 0100, 2: 0010, 3: 0001)。所以转换[0, 1, 3]为[ 1.,  0.,  0.,  1.,  0.,  0.,  0.,  0.,  1.]。

显然就是把“0”的热独编码“10”,“1”的热独编码“010”,“3”的热独编码“0001” 拼接到一起即可。

 

你可能感兴趣的:(机器学习)