【pytorch Embedding API使用】

torch.nn.Embedding

    • 参数说明
    • 具体使用

import torch
embedding=nn.Embedding(num,dim)

参数说明

1.num:vocabulary的大小
2.dim:embedding向量的维度

具体使用

使用时将self.Embedding实例化到模型的_init_(…)方法内
然后在forward()方法内使用,从而得到输入序列的词嵌入矩阵,大小为[batch_size,N,dim],N为句子长度
训练时使用pytorch的自动求导可实现Embedding矩阵的更新
这应该是叫Word2Vec?

你可能感兴趣的:(pytorch,深度学习,机器学习)