本文主要是为了讲解xDeepFM的框架,及如何用tensorflow去实现主干部分,如果需要直接拆箱可用,可以参考:xDeepFM,我的部分代码也来自于其中,这边主要是和大家一起对比着看下,xDeepFM到底做了哪些事情?我的工程实现代码等待我司项目上线稳定后开源。
首先,我在做论坛帖子推荐的时候遇到这么一个问题(问题真实,问题内容纯属虚构),用户A:带有如下标签[篮球、足球、健身],用户B:带有如下标签[篮球,电脑,蔡徐坤],在使用deepfm做精排的时候,常常会把A和B所看的内容互相推荐,很明显,A是运动达人,而B是二次元达人,这样推荐是存在很大问题的。
我在处理的时候,采取了两种套路:
网上大多数版本都是甩出的正方体图+公式,我觉得很不清晰,这边就不贴了,我直接贴代码及解释:
nn_input = tf.reshape(nn_input, shape=[-1, int(field_num), self.hparams.dim])
我们知道,无论是deepfm还是XDeepFM在初始化的时候,都会把feature进行onehotencoding后向量化,然后再压缩成一个[batch,dim*
FIELD_COUNT]的input,这边只是将其还原成网上常见的正方体的形式:[batch,field_num,dim]
split_tensor0 = tf.split(hidden_nn_layers[0], self.hparams.dim * [1], 2)
这个就是XDeepFM最有意思的地方,我们正常理解都是把特征按照不同的特征进行切分组合,在XDeepFM它却按照dim进行切开然后进行点击,而且是外积,所以大家难以理解的就在这边,用数据来说就是:
tf.convert_to_tensor(np.arange(1,13).reshape(2,2,3),dtype=tf.int32)
array([[[ 1, 2, 3],
[ 4, 5, 6]],
[[ 7, 8, 9],
[10, 11, 12]]], dtype=int32)
切割完为:
[array([[[ 1],
[ 4]],
[[ 7],
[10]]], dtype=int32),
array([[[ 2],
[ 5]],
[[ 8],
[11]]], dtype=int32),
array([[[ 3],
[ 6]],
[[ 9],
[12]]], dtype=int32)]
这边没有按照[1,2,3]这种方式去切分,而是按照[[1],[4]]这种方式,在dim上进行切分。
dot_result_m = tf.matmul(split_tensor0, split_tensor, transpose_b=True)
这一步也是很有意思,没有常规意义上做点击dot,做的外积,生生的把向量铺开了:
array([[[[ 1, 4],
[ 4, 16]],
[[ 49, 70],
[ 70, 100]]],
[[[ 4, 10],
[ 10, 25]],
[[ 64, 88],
[ 88, 121]]],
[[[ 9, 18],
[ 18, 36]],
[[ 81, 108],
[108, 144]]]], dtype=int32)
把刚才的[[1],[4]]按照外积的形式去处理了,并得到了一个[bacth_size,dim,field_nums[0] *
field_nums[-1]]的形式。再通过[1,field_nums[-1] * field_nums[0],output]进行卷积处理相当于在dim的每一维上进行融合,融合的是所有特征dim的每一维。最后才sum_pooling操作,外接一个输出层压缩到1个输出值。
看代码就知道,刚才CIN的过程可以进行N次,这里面的l代表着从0层开始了l次的特征组合,比起deepfm的2次,对特征的组合更深,能解释的空间更为复杂
虽然作者在论文刚开始的时候就吐槽了DCN的低端,认为DCN其实就是init层的N次交叉,但是我认为DCN的残差项保证了特征的1~l+1特征都有,而CIN中去除了残差项,虽然更快了,但是相当于丢弃了1~l阶特征的组合结果,不见得可取
更多代码内容欢迎follow我的个人Github,如果有任何算法、代码疑问都欢迎通过邮箱发消息给我。