独热编码看了不少解释,但是通俗易懂的帖子很少,根据自己的理解写一篇自认为较好理解的。
编码过程:
假如只有一个特征是离散值:
{sex:{male, female,other}}
该特征总共有3个不同的分类值,此时需要3个bit位表示该特征是什么值,对应bit位为1的位置对应原来的特征的值(一般情况下可以将原始的特征的取值进行排序,以便于后期使用),此时得到独热码为{100}男性 ,{010}女性,{001}其他
假如多个特征需要独热码编码,那么久按照上面的方法依次将每个特征的独热码拼接起来:
{sex:{male, female,other}}
{grade:{一年级, 二年级,三年级, 四年级}}
此时对于输入为{sex:male; grade: 四年级}进行独热编码,可以首先将sex按照上面的进行编码得到{100},然后按照grade进行编码为{0001},那么两者连接起来得到最后的独热码{1000001};
展示网上常见例子:
["male", "female"] 注意这是第一个特征,有两种值(0: 10, 1: 01)
["from Europe", "from US", "from Asia"] 第二个特征,有三种值(0: 100, 1: 010, 2: 001)
["uses Firefox", "uses Chrome", "uses Safari", "uses Internet Explorer"] 第三个特征四种值(0: 1000, 1: 0100, 2: 0010, 3: 0001)
如果将上述特征用数字表示,效率会高很多。例如:
["male", "from US", "uses Internet Explorer"] 表示为[0, 1, 3] 注意这里的"0"代表["male", "female"] 中的"male","1"代表["from Europe", "from US", "from Asia"] 中的"from US",“3”代表["uses Firefox", "uses Chrome", "uses Safari", "uses Internet Explorer"] 中的"uses Internet Explorer"
["female", "from Asia", "uses Chrome"]表示为[1, 2, 1]
但是,即使转化为数字表示后,上述数据也不能直接用在我们的分类器中。因为,分类器往往默认数据数据是连续的(可以计算距离?),并且是有序的(而上面这个0并不是说比1要高级)。但是,按照我们上述的表示,数字并不是有序的,而是随机分配的。
基于Scikit-learn的例子:
from sklearn import preprocessing
enc = preprocessing.OneHotEncoder()
enc.fit([[0, 0, 3], [1, 1, 0], [0, 2, 1], [1, 0, 2]])
enc.transform([[0, 1, 3]]).toarray()
输出结果:
array([[ 1., 0., 0., 1., 0., 0., 0., 0., 1.]])
Note: fit了4个数据3个特征,而transform了1个数据3个特征。第一个特征两种值(0: 10, 1: 01),第二个特征三种值(0: 100, 1: 010, 2: 001),第三个特征四种值(0: 1000, 1: 0100, 2: 0010, 3: 0001)。所以转换[0, 1, 3]为[ 1., 0., 0., 1., 0., 0., 0., 0., 1.]。
显然就是把“0”的热独编码“10”,“1”的热独编码“010”,“3”的热独编码“0001” 拼接到一起即可。