推荐系统----协同过滤,矩阵分解,逻辑回归,FM,FMM,GBDT+LR,LS-PLM之间的优缺点

协同过滤:

源于1992年直到2003年才被Amazon发表论文使用了

基本原理:

根据用户的行为历史生成用户-物品共现矩阵,利用用户相似性和物品相似性进行推荐

特点:

原理简单,直接,应用广泛

局限性:

泛化能力差,处理稀疏矩阵的能力差,推荐结果的头部效应较为明显

矩阵分解:

源于2006年Netflix举办推荐算法竞赛使推出的

基本原理:

将协同过滤算法中的共现矩阵分解为用户矩阵和物品矩阵,利用用户因向量和物品因向量的内积进行排序并推荐

特点:

相较协同过滤,泛化能力有所加强,对稀疏矩阵的处理能力有所加强。

局限性:

处理用户历史行为数据,难以利用其他用户,物品特征及上下文特征

逻辑回归:

基本原理:

将推荐问题装欢为类似于CTR预估的二分类问题,将用户,物品,上下文等不同特征转换成特征向量,输入逻辑回归模型得到CTR,在按照预估CTR进行排序并推荐。

特点:

能够融合多中类型的不同特征

局限性:

模型不具备特征组合的能力,表达能力较差。

FM:

源于2010年Rendle提出来的

基本原理:

在逻辑回归的基础上,在模型中加入二阶特征交叉部分,为每一维特征训练得到相应特征因向量,通过隐向量间的内积与不算得到交叉特征权重

特点:

相比逻辑回归,具备二阶特征交叉能力,模型的表大能力较强。

局限性:

由于组合爆炸问题的限制,模型不易扩展导三阶特征交叉阶段

FFM:

源于2015年

基本原理:

在FM模型的基础上,加入“特征域”的概念,是每个特征在于不同域的特征交叉时采用不同的隐向量。

特点:

相比FM,进一步加强了特征交叉的能力

局限性:

模型的训练开销达到了O(n2)的量级,训练开销较大

GBDT+LR:

源于2014年Facebook提出来的

基本原理:

利用GBDT进行“自动化”的特征组合,将原始特征向量转换为离散型特征向量,并输入逻辑回归模型,进行最终的CTR预估,

特点:

特征工程模型化,使模型具备了更高阶组合的能力

局限性:

GBDT无法进行完全的并行的训练,更新所需的训练时长较长

LS+PLM:

源于2012年,但是由阿里导2017年才推出的

基本原理:

首先对样本进行”分片“,在每个分片内部构建逻辑回归模型,将每个样本的各分片概率与逻辑回归的得分进行加权平均,得到最终的预估值。

特点:

模型结果类似三层神经网络,具备了较强的表达能力

局限性:

模型结果相比深度学习模型仍比较简单,有进一步提高的空间。

你可能感兴趣的:(推荐系统,深度学习,机器学习,推荐系统,人工智能,协同过滤)