Pytorch 词嵌入word_embedding1初识

 

torch.nn.Embedding(num_embeddings, embedding_dim, 
                   padding_idx=None, max_norm=None, 
                   norm_type=2, scale_grad_by_freq=False, 
                   sparse=False)

参数所表示的含义:

          num_embeddings (int) :嵌入字典的大小

          embedding_dim (int) :每个嵌入向量的大小

          padding_idx (int, optional) : 如果提供的话,输出遇到此下标时用零填充

         max_norm (float, optional) :如果提供的话,会重新归一化词嵌入,使它们的范数小于提供的值。

          norm_type (float, optional) :对于max_norm选项计算p范数时的p

          scale_grad_by_freq (boolean, optional) :如果提供的话,会根据字典中单词频率缩放梯度注意:没有指定训练好的词向量时,           embedding会自动生成一个随机的词向量。

 

你可能感兴趣的:(Pytorch)