Embedding的理解

最近在看多标签文本分类的文章,有一种思路是将标签也和Word Embedding一样,弄成Label Embedding的形式。

我们平常在文本中获得的信息不知道怎么样在脑袋里理解的,它肯定是很丰富的。文本之间会有很多的依赖关系,比如茶杯和陶瓷,桌子和椅子,都是具有一定关联的,我你他这一类的,那么在训练的时候,如果能够比较好的将这些关系挖掘出来的话,那会给训练带来很大的优势。

Word Embedding就是干了这么一件事,它使用向量的形式(实际上就是把语义信息丰富到空间里去,空间多少维可以自己决定,就可以把相似词放在空间中某一个位置。

比如说我桌子上有台电脑,那么在三维空间里,以墙角维坐标原点,我的桌子可以得到一个坐标,电脑也可以得到一个坐标,那么桌子和电脑就可以被表示在很近的位置。

单词也是如此,把它映射到高维空间中去,把有关联的映射到一起。

Label Embedding和Word Embedding 也差不多。

你可能感兴趣的:(深度学习)