2018-09-04-一句话总结网络表示学习经典算法-DeepWalk,LINE,node2vec

- DeepWalk: 将已知网络构造成二叉树,对每个节点采用若干次随机游走得到固定长度的局部序列信息,然后使用SkipGram方法(取神经网络的隐层参数作为输入向量的低维表示),将序列看作单词组成的句子,对于句子中每个节点,先根据随机生成的映射函数将其进行投影,然后输入神经网络进行训练,目标是使前后节点出现的概率最大,这样得到更新的映射函数以及二叉树参数。——保留节点邻居信息

- LINE: 分别求网络中节点的一阶相似度和经验概率,二阶相似度和经验概率,分别最小化他们的KL散度最为神经网络训练的目标,然后把输出合并作为节点的低维向量表示。——保留节点的一阶、二阶邻居信息

- node2vec: 升级版DeepWalk。首先根据参数p,q初始化概率转移矩阵,然后对每个节点采用若干次随机游走(概率不等,选择游走的下一个邻居时采用别名采样法)得到固定长度的局部序列信息,使用SkipGram方法训练神经网络得到节点的向量表示——同时保留节点的局部特性和全局特性(结构相似性和内容相似性)

你可能感兴趣的:(2018-09-04-一句话总结网络表示学习经典算法-DeepWalk,LINE,node2vec)