本文首发于公众号: 机器学习荐货情报局
认真阅读完本文,抓住DeepFM的理论核心不成问题!
配合《计算广告CTR预估系列(二)–DeepFM实践》食用更佳!敬请期待。。。
CTR预估数据特点:
1. 输入中包含类别型和连续型数据。类别型数据需要one-hot,连续型数据可以先离散化再one-hot,也可以直接保留原值
2. 维度非常高
3. 数据非常稀疏
4. 特征按照Field分组
CTR预估重点在于学习组合特征。注意,组合特征包括二阶、三阶甚至更高阶的,阶数越高越复杂,越不容易学习。Google的论文研究得出结论:高阶和低阶的组合特征都非常重要,同时学习到这两种组合特征的性能要比只考虑其中一种的性能要好。
那么关键问题转化成:如何高效的提取这些组合特征。一种办法就是引入领域知识人工进行特征工程。这样做的弊端是高阶组合特征非常难提取,会耗费极大的人力。而且,有些组合特征是隐藏在数据中的,即使是专家也不一定能提取出来,比如著名的“尿布与啤酒”问题。
在DeepFM提出之前,已有LR,FM,FFM,FNN,PNN(以及三种变体:IPNN,OPNN,PNN*),Wide&Deep模型,这些模型在CTR或者是推荐系统中被广泛使用。
最开始CTR或者是推荐系统领域,一些线性模型取得了不错的效果。比如:LR,FTRL。线性模型有个致命的缺点:无法提取高阶的组合特征。所以常用的做法是人为的加入pairwise feature interactions。即使是这样:对于那些出现很少或者没有出现的组合特征以及高阶组合特征依旧无法提取。
LR最大的缺点就是无法组合特征,依赖于人工的特征组合,这也直接使得它表达能力受限,基本上只能处理线性可分或近似线性可分的问题。
线性模型差强人意,直接导致了FM模型应运而生(在Kaggle上打比赛提出来的,取得了第一名的成绩)。FM通过隐向量latent vector做内积来表示组合特征,从理论上解决了低阶和高阶组合特征提取的问题。但是实际应用中受限于计算复杂度,一般也就只考虑到2阶交叉特征。
后面又进行了改进,提出了FFM,增加了Field的概念。
随着DNN在图像、语音、NLP等领域取得突破,人们见见意识到DNN在特征表示上的天然优势。相继提出了使用CNN或RNN来做CTR预估的模型。但是,CNN模型的缺点是:偏向于学习相邻特征的组合特征。 RNN模型的缺点是:比较适用于有序列(时序)关系的数据。
FNN的提出,应该算是一次非常不错的尝试:先使用预先训练好的FM,得到隐向量,然后作为DNN的输入来训练模型。缺点在于:受限于FM预训练的效果。
随后提出了PNN,PNN为了捕获高阶组合特征,在embedding layer
和first hidden layer
之间增加了一个product layer
。根据product layer使用内积、外积、混合分别衍生出IPNN, OPNN, PNN*
三种类型。
无论是FNN还是PNN,他们都有一个绕不过去的缺点:对于低阶的组合特征,学习到的比较少。而前面我们说过,低阶特征对于CTR也是非常重要的。
Google意识到了这个问题,为了同时学习低阶和高阶组合特征,提出了Wide&Deep模型。它混合了一个线性模型(Wide part)和Deep模型(Deep part)。这两部分模型需要不同的输入,而Wide part部分的输入,依旧依赖人工特征工程。
但是,这些模型普遍都存在两个问题:
1. 偏向于提取低阶或者高阶的组合特征。不能同时提取这两种类型的特征。
2. 需要专业的领域知识来做特征工程。
DeepFM在Wide&Deep的基础上进行改进,成功解决了这两个问题,并做了一些改进,其优势/优点如下:
1. 不需要预训练FM得到隐向量
2. 不需要人工特征工程
3. 能同时学习低阶和高阶的组合特征
4. FM模块和Deep模块共享**Feature Embedding**部分,可以更快的训练,以及更精确的训练学习
下面,就让我们走进DeepFM的世界,一起去看看它到底是怎么解决这些问题的!
DeepFM闪亮登场!
主要做法如下:
1. FM Component + Deep Component。FM提取低阶组合特征,Deep提取高阶组合特征。但是和Wide&Deep不同的是,DeepFM是端到端的训练,不需要人工特征工程。
2. 共享feature embedding。FM和Deep共享输入和feature embedding
不但使得训练更快,而且使得训练更加准确。相比之下,Wide&Deep中,input vector非常大,里面包含了大量的人工设计的pairwise组合特征,增加了他的计算复杂度。
DeepFM架构图:
FM部分的输出由两部分组成:一个Addition Unit,多个内积单元。
这里的d是输入one-hot之后的维度,我们一般称之为feature_size
。对应的是one-hot之前的特征维度,我们称之为field_size
。
FM架构图:
Addition Unit
Deep Component架构图:
Deep Component是用来学习高阶组合特征的。网络里面黑色的线是全连接层,参数需要神经网络去学习。
由于CTR或推荐系统的数据one-hot之后特别稀疏,如果直接放入到DNN中,参数非常多,我们没有这么多的数据去训练这样一个网络。所以增加了一个Embedding层,用于降低纬度。
这里继续补充下Embedding层,两个特点:
1. 尽管输入的长度不同,但是映射后长度都是相同的.embedding_size 或 k
2. embedding层的参数其实是全连接的Weights,是通过神经网络自己学习到的。
Embedding层的架构图:
值得注意的是:FM模块和Deep模块是共享feature embedding的(也就是V)。
好处:
1. 模型可以从最原始的特征中,同时学习低阶和高阶组合特征
2. 不再需要人工特征工程。Wide&Deep中低阶组合特征就是同过特征工程得到的。
模型图:
FNN is a FM-initialized feedforward neural network.
FNN使用预训练的FM来初始化DNN,然后只有Deep部分,不能学习低阶组合特征。
FNN缺点:
PNN:为了捕获高阶特征。PNN在第一个隐藏层和embedding层之间,增加了一个product layer。
根据product的不同,衍生出三种PNN:IPNN,OPNN,PNN* 分别对应内积、外积、两者混合。
作者为了加快计算,采用近似计算的方法来计算内积和外积。内积:忽略一些神经元。外积:把m*k维的vector转换成k维度的vector。由于外积丢失了较多信息,所以一般没有内积稳定。
但是内积的计算复杂度依旧非常高,原因是:product layer的输出是要和第一个隐藏层进行全连接的。
PNN缺点:
Wide & Deep设计的初衷是想同时学习低阶和高阶组合特征,但是wide部分需要领域知识进行特征工程。
Wide部分可以用LR来替换,这样的话就和DeepFM差不多了。
但是DeepFM共享feature embedding 这个特性使得在反向传播的时候,模型学习feature embedding,而后又会在前向传播的时候影响低阶和高阶特征的学习,这使得学习更加的准确。
Wide&Deep缺点:
优点:
什么?太多了乱七八糟记不住?OK,那就记住最核心的:
论文中还给出了一些参数的实验结果,直接给出结论,大家实现的时候可以参考下。
超参数 | 建议 | 备注 |
---|---|---|
激活函数 | 1. IPNN使用tanh 2. 其余使用ReLU | |
学习方法 | Adam | |
Dropout | 0.6~0.9 | |
隐藏层数量 | 3~5 | 根据实际数据大小调整 |
神经元数量 | 200~600 | 根据实际数据大小调整 |
网络形状 | constant | 一共有四种:固定、增长、下降、菱形。 |
PS: constant效果最好,就是隐藏层每一层的神经元的数量相同。
最后,模型对比图镇:
获取更多机器学习干货、荐货,欢迎关注机器学习荐货情报局,加入荐货大家庭!