tensorflow学习笔记--embedding_lookup()用法

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/u013041398/article/details/60955847

embedding_lookup( )的用法 
关于tensorflow中embedding_lookup( )的用法,在Udacity的word2vec会涉及到,本文将通俗的进行解释。

首先看一段网上的简单代码:

 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14

代码中先使用palceholder定义了一个未知变量input_ids用于存储索引,和一个已知变量embedding,是一个5*5的对角矩阵。 
运行结果为:

 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

简单的讲就是根据input_ids中的id,寻找embedding中的对应元素。比如,input_ids=[1,3,5],则找出embedding中下标为1,3,5的向量组成一个矩阵返回。 

如果将input_ids改写成下面的格式:

 
  • 1
  • 2

输出结果就会变成如下的格式:

 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

对比上下两个结果不难发现,相当于在np.array中直接采用下标数组获取数据。需要注意的细节是返回的tensor的dtype和传入的被查询的tensor的dtype保持一致;和ids的dtype无关。

你可能感兴趣的:(深度学习,TensorFlow)