阿里之完整空间多任务模型ESMM介绍

原文链接: https://www.jianshu.com/p/35f00299c059

论文地址:https://arxiv.org/abs/1804.07931

在正式开篇之前,我们先介绍一下几个名词:
impression:用户观察到曝光的产品
click:用户对impression的点击行为
conversion:用户点击之后对物品的购买行为
CTR:从impression到click的比例
CVR:从click到conversion的比例
CTCVR:从impression到conversion的比例
pCTR:p(click=1 | impression)
pCVR: p(conversion=1 | click=1,impression)
pCTCVR: p(conversion=1,click=1 |impression) = p(click=1 | impression) * p(conversion=1|click=1,impression)

1、背景

以电子商务平台为例,用户的购买行为一般遵循以下的顺序决策模式:impression-click-conversion,即用户先观察到系统推荐的产品,然后会对自己感兴趣的商品进行点击,进而产生购买行为。从点击到购买的转化我们称为post-click Conversion rate(以下简称CVR),CVR的预估在信息检索、推荐系统、在线广告投放等工业级应用中是至关重要的。

不过传统的CVR预估问题存在着两个主要的问题:样本选择偏差稀疏数据。我们来看下面的图,我们把给用户曝光过的产品看作是整个样本空间X的话,用户点击过的产品仅是中间灰色的部分,我们定义为Xc,而用户购买过的产品仅是图中黑色的部分。

阿里之完整空间多任务模型ESMM介绍_第1张图片

样本选择偏差(sample selection bias,SSB):传统的推荐系统仅用Xc中的样本来训练CVR预估模型,但训练好的模型是在整个样本空间X去做推断的。由于点击事件相对于曝光事件来说要少很多,因此只是样本空间X的一个很小的子集,从Xc上提取的特征相对于从X中提取的特征而言是有偏的,甚至是很不相同。从而,按这种方法构建的训练样本集相当于是从一个与真实分布不一致的分布中采样得到的,这一定程度上违背了机器学习中独立同分布的假设。这种训练样本从整体样本空间的一个较小子集中提取,而训练得到的模型却需要对整个样本空间中的样本做推断预测的现象称之为样本选择偏差。样本选择偏差会伤害学到的模型的泛化性能。

数据稀疏(data sparsity,DS):推荐系统展现给用户的商品数量要远远大于被用户点击的商品数量,同时有点击行为的用户也仅仅只占所有用户的一小部分,因此有点击行为的样本空间Xc相对于整个样本空间X来说是很小的,通常来讲,量级要少1~3个数量级。如下表所示,在淘宝公开的训练数据集上,Xc只占整个样本空间X的4%。这就是所谓的训练数据稀疏的问题,高度稀疏的训练数据使得模型的学习变得相当困难。

阿里之完整空间多任务模型ESMM介绍_第2张图片

为了解决上面的两个问题,阿里提出了完整空间多任务模型ESMM。下一章,我们将会来学习一下阿里是如何设计整个网络的。

2、ESM

M模型

2.1 模型结构

阿里妈妈的算法同学提出的ESMM模型借鉴了多任务学习的思路,引入了两个辅助的学习任务,分别用来拟合pCTR和pCTCVR,从而同时消除了上文提到的两个挑战。ESMM模型能够充分利用用户行为的顺序性模式,其模型架构下图所示:

阿里之完整空间多任务模型ESMM介绍_第3张图片

可以看到,ESMM模型由两个子网络组成,左边的子网络用来拟合pCVR,右边的子网络用来拟合pCTR,同时,两个子网络的输出相乘之后可以得到pCTCVR。因此,该网络结构共有三个子任务,分别用于输出pCTR、pCVR和pCTCVR。

假设我们用x表示feature(即impression),y表示点击,z表示转化,那么根据pCTCVR = pCTR * pCVR,可以得到:

阿里之完整空间多任务模型ESMM介绍_第4张图片

将乘法转化为除法,我们可以得到pCVR的计算:

2.2 模型特点

ESMM模型共有以下两个主要的特点:

在整个样本空间中进行建模

由上面提到的等式可以看出,pCVR是可以通过pCTR和pCTCVR的预估推导出来的。因此,我们只需要关注pCTR和pCTCVR两个任务即可。为什么是这两个任务呢?其实就是为了消除样本选择偏差嘛,因为CVR是从click到conversion,而CTCVR是从impression到conversion,CTR是从impression到conversion,所以CTR和CTCVR都可以从整个样本空间进行训练,一定程度的消除了样本选择偏差。

我们可以将有点击行为的曝光事件作为正样本,没有点击行为的曝光事件作为负样本,来做CTR预估的任务。将同时有点击行为和购买行为的曝光事件作为正样本,其他作为负样本来训练CTCVR的预估部分。

模型具体是怎么做的呢?可以看到,用来训练两个任务的输入x其实是相同的,但是label是不同的。CTR任务预估的是点击y,CTCVR预估的是转化z。因此,我们将(x,y)输入到CTR任务中,得到CTR的预估值,将(x,z)输入到CVR任务中,得到CVR的预估值,CTR和CVR的预估值相乘,便得到了CTCVR的预估值。因此,模型的损失函数可以定义为:

阿里之完整空间多任务模型ESMM介绍_第5张图片

其中,θctr和θcvr分别是CTR网络和CVR网络的参数,l(⋅)是交叉熵损失函数。

共享特征表示

ESMM模型借鉴迁移学习的思路,在两个子网络的embedding层共享embedding向量(特征表示)词典。网络的embedding层把大规模稀疏的输入数据映射到低维的表示向量,该层的参数占了整个网络参数的绝大部分,需要大量的训练样本才能充分学习得到。由于CTR任务的训练样本量要大大超过CVR任务的训练样本量,ESMM模型中特征表示共享的机制能够使得CVR子任务也能够从只有展现没有点击的样本中学习,从而能够极大地有利于缓解训练数据稀疏性问题。

3、实验效果

3.1 对比模型介绍

为了验证ESMM的效果,阿里团队与如下的算法进行了对比:

方法 简介
BASE ESMM模型中左边的子神经网络模型,只利用点击样本空间Xc
AMAN AMAN applies negative sampling strategy and best results are reported with sampling rate searched in {10%, 20%, 50%, 100%}
OVERSAMPLING OVERSAMPLINGcopies posi- tive examples to reduce di culty of training with sparse data, with sampling rate searched in {2, 3, 5, 10}.
UNBIAS UNBIAS follows to t the truly underlying distribution from observations via rejection sampling. pCTR is taken as the rejection probability.
DIVISION 先分别训练出拟合CTR和CTCVR的模型,再拿CTCVR模型的预测结果除以CTR模型的预测结果得到对CVR模型的预估
ESMM-NS ESMM模型的基础上去掉了特征表示共享的机制
ESMM 本文提出的模型n

3.2 公开数据集实验

下图展示了在公开实验数据集上模型的对比效果:

阿里之完整空间多任务模型ESMM介绍_第6张图片

可以看到,ESMM模型相比于其他的模型,实验效果显著提升。

3.3 淘宝数据集实验

下图展示了ESMM模型在淘宝生产环境数据集上的测试效果对比:

阿里之完整空间多任务模型ESMM介绍_第7张图片

可以看到,相对于BASE模型,ESMM模型在CVR任务中AUC指标提升了 2.18%,在CTCVR任务中AUC指标提升了2.32%。

4、总结

总结一下,ESMM模型利用用户行为序列数据在完整样本空间建模,避免了传统CVR模型经常遭遇的样本选择偏差和训练数据稀疏的问题,取得了显著的效果。另一方面,ESMM模型的贡献在于其提出的利用学习CTR和CTCVR的辅助任务,迂回地学习CVR的思路。ESMM模型中的BASE子网络可以替换为任意的学习模型,因此ESMM的框架可以非常容易地和其他学习模型集成,从而吸收其他学习模型的优势,进一步提升学习效果,想象空间巨大。

参考文献

1、https://arxiv.org/abs/1804.07931
2、http://xudongyang.coding.me/esmm/

作者:文哥的学习日记
链接:https://www.jianshu.com/p/35f00299c059
来源:简书

你可能感兴趣的:(ESMM,多任务,CVR,深度学习)