Kim D, Park C, Oh J, et al. Convolutional matrix factorization for document context-aware recommendation[C]//Proceedings of the 10th ACM Conference on Recommender Systems. ACM, 2016: 233-240.
用户到项目评分数据的稀疏性是推荐系统质量恶化的主要因素之一。为了处理稀疏性问题,一些推荐技术考虑辅助信息来提高评分预测精度。特别地,当评分数据稀疏时,基于文档建模的方法通过利用文本数据(例如评论,摘要或概要)来提高准确性。然而,由于词袋模型的固有限制,它们在有效利用文档的上下文信息方面存在困难,只能对文档浅层理解。本文提出了一种新颖的上下文感知推荐模型,将卷积神经网络(CNN)集成到概率矩阵分解(PMF)中的卷积矩阵分解(ConvMF)。ConvMF捕获文档的上下文信息,并进一步提高评分预测精度。我们在三个真实世界的数据集的测试显示,ConvMF显著优于现有先进的推荐模型,即使评分数据极为稀少。我们还展示了ConvMF成功地捕获了文档中单词的微妙上下文差异。我们的实实验和数据集可在http://dm.postech.ac.kr/ConvMF获得。
电子商务服务中的用户和项目数量的爆炸式增长增加了用户对项目评分数据的稀疏性。最终,这种稀疏性降低了传统协同过滤技术的评分预测精度。为了提高准确性,一些推荐技术提出了不仅要考虑评分信息,还考虑用户的人口统计信息、社会网络和项目描述文件等的辅助信息。
最近,研究者们已经提出了基于文档建模方法(如LDA主题模型和堆栈去噪自动编码器(SDAE))的方法来利用项目描述文档如评论,摘要或概要。具体来说,Wang等人提出的协作主题回归(CTR),其结合了主题建模(LDA)和协同过滤的概率方法。提出了不同的CTR,将LDA整合到协同过滤中,以不同的集成方法分析项目描述文档。 最近,Wang等人提出将SDAE整合到概率矩阵分解(PMF)中的协同深度学习(CDL),从而在评分预测精度方面产生更准确的潜在模型。
然而,现有的集成模型并不能完全捕获文档信息,因为它们使用的词袋模型忽略诸如周围单词和单词顺序的文档的上下文信息。 例如,假设在文件中给出了以下两个句子:“人们相信这个人”,“人们最终背叛了他的信任”,由于LDA和SDAE认为该文件是一个不可忽略的单词的集合,所以他们无法区分每一个事件 的“信任”。 确切地说,虽然每个“信任”的发生似乎都具有几乎相同的含义,但是这些词之间存在微妙的句法差异 - 一个动词和一个名词。 文档中的这种微妙的差异对于更深入地理解文档也是一个非常重要的因素,并且进一步的这种理解有助于提高评分预测精度。
为了解决上述问题,我们采用卷积神经网络(CNN),它是最先进的机器学习方法,在诸如计算机视觉,自然语言处理(NLP)和信息检索等各个领域表现出了高性能。 CNN通过建模组件有效地捕获图像或文档的局部特征,这些模型组件包括局部感知野,共享权重和下采样。因此,CNN的使用有助于更深入地了解文档信息,并且产生比LDA和SDAE更好的潜在模型,特别是对于由于缺乏评分而诉诸于其描述文档的项目。 此外,CNN能够利用诸如Glove等预先训练的词嵌入模型来更深入地了解项目描述文档。 请注意,LDA和SDAE不能利用预先训练的词嵌入模型,因为它们采用了词袋模型。
然而,现有的CNN不适合推荐任务,因为卷机网络的目标与推荐目标不同。 具体来说,常规CNN主要解决分类任务,即预测单词,短语或文档的标签。 相反,推荐的目标被认为是一个回归任务,旨在准确地近似用户对项目的评分。 因此,现有的CNN不能直接适用于我们的推荐任务。
为了解决这个技术问题,我们提出了一种文档上下文环境设置推荐模型,卷积矩阵因式分解(ConvMF),通过利用卷积神经网络(CNN)捕获项目描述文档的上下文信息,进一步提高了评分预测精度。ConvMF正是将CNN无缝集成到PMF中,而PMF通常用于推荐任务。因此,综合模式遵循推荐目标,最终有效地利用协作信息和上下文信息。因此,即使评分数据非常稀疏,ConvMF也能准确地预测未知的评分。
为了证明ConvMF的有效性,我们对三种不同的现实世界数据集进行ConvMF的评估。我们对评分数据集的各种稀疏性的实验广泛证明,ConvMF显着优于现有的先进的模型。 ConvMF的优越性验证了即使评分数据非常稀疏,ConvMF能够生成有效反映项目描述文档的上下文信息的项目潜在模型。我们还定性证明ConvMF确实在文档中捕捉到一个单词的微妙的语境差异。此外,我们研究预先训练的词嵌入模型是否有助于提高ConvMF的评分预测精度。除了实验代码和数据集。详细的实验结果也可在http://dm.postech.ac.kr/ConvMF获得。
我们的贡献总结如下。
本文的其余部分组织如下。 第2节简要回顾了最具代表性的协同过滤技术和CNN模型。 第3节介绍了对ConvMF的概述,介绍了ConvMF的CNN架构,并介绍了如何优化ConvMF。 第4节通过实验评估ConvMF并讨论评估结果。 第5节总结了我们的贡献,并提供未来的工作。
在本节中,我们简要回顾了矩阵分解(MF)(最流行的协同过滤技术)和卷积神经网络(CNN)。
传统的协同过滤技术被分为两类[5]:基于内存的方法(例如最近邻域)和基于模型的方法(例如潜在因子模型)。 一般来说,基于模型的方法已知可以产生更准确的推荐结果。 因此,在本节中,我们描述了MF,这是最流行的基于模型的方法。
MF的目标是在共享隐空间中寻找用户和项目的潜在模型,共享隐空间中用户项目关系的强度(即用户对项目的评分)由内部产品计算。假设我们有N个用户,M个项目和一个用户项目评级矩阵 R∈RN∗M 。在MF中,用户 i 和项目 j 的潜在模型被表示为k维模型 ui∈Rk 和 vj∈Rk 。 用户 i 对项目 j 的评分 rij 由用户i和项目 j 的对应潜在模型的内积(即 rij=uTivj )近似。训练隐模型的一般方法是将损失函数L最小化,该损失函数L包括实际评分与预测评分之间的平方和,并且加上试图避免过拟合问题的L2正则化项如下:
L=∑Ni∑MjIij(rij−uTivj)2+λu∑Ni∥ui∥2+λv∑Mj∥vj∥2
其中 Iij 是指示函数当用户i 给项目j 打分时为1,其他为0。
卷积神经网络(CNN)是具有以下组件的前馈神经网络的变体:1)用于产生局部特征的卷积层,2)通过仅选择几个典型的局部特征(即,通过激活功能具有最高分数的特征)来表示数据作为更简洁表示的池化(或子采样)层 ,局部特征来自上一层,其通常是卷积层。
虽然CNN最初是为计算机视觉开发的,但是CNN的关键思想已经积极应用于信息检索和NLP,如搜索查询检索,句子建模和分类和其他传统的NLP任务。虽然针对NLP任务需要对CNN架构进行大量修改,但最终都有助于提高各种NLP任务的性能。
然而,CNN尚未被积极应用于推荐系统领域。据我们所知,van den Oord等人首先将CNN应用于音乐推荐,通过声学分析观点利用CNN分析了歌曲,并提出了一种基于声学CNN获得的项目潜在模型来预测评分的模型。然而,他们的CNN模型,专为声信号处理而设计,不适合处理文档。文档和声学信号对周围特征的质量有固有的差异。一定时间的信号固有地类似于其周围的信号,即具有轻微时间差的信号,而文档中某个位置处的一个字与周围的字有很大的语义差异。周围特征之间的这种相似度的差异影响局部特征的质量,最终需要不同的CNN架构。此外,该模型还没有充分反映协同信息。具体来说,项目潜在模型主要由通过CNN进行音频信号分析的结果而不是协同信息决定。因此,总体推荐的性能甚至没有达到加权矩阵分解(WMF),WMF这是处理隐式反馈数据集的常规基于MF的协同过滤技术之一。
在本节中,我们通过三个步骤解释了提出的模型—卷积矩阵因式分解(ConvMF)的细节:1)介绍ConvMF的概率模型,并描述桥接PMF和CNN的关键思想,以便利用评分和项目说明文档。2)我们解释CNN的详细架构,通过分析项目描述文档生成文档潜在模型。3)最后,我们描述如何优化ConvMF的潜在变量。
图1显示了ConvMF的概率模型的概述,它将CNN集成到PMF中。 假设我们有N个用户和M个项目,并且观察到的评分由 R∈RM∗N 的矩阵表示。然后,我们的目标是找到其乘积( UTV )重建评级矩阵R的用户和项目潜在模型( U∈Rk∗N 和 V∈Rk∗M )。从概率观点上看,观察到的评分条件分布是由下式给出的:
p(R|U,V,σ2)=∏Ni∏MjN(rij|uTivj,σ2)Iij
其中 N(x|μ,σ2) 是具有平均值 μ 和方差 σ2 的高斯正态分布的概率密度函数, Iij 是2.1节中提到的指标函数。
作为用户潜在模型的生成模型,我们将传统的先验,方差为 σ2U 的零均值球面高斯置于用户潜在模型上。
p(U|σ2U)=∏NiN(ui|0,σ2UI)
然而,与常规PMF中项目潜在模型的概率模型不同,我们假设项目潜在模型由三个变量生成:1)CNN中的内部权重W,2)表示项目 j 的文档的 Xj,以及3)ε变量 作为高斯噪声,使我们能够进一步优化评级的项目潜在模型。 因此,最终项目潜在模型通过以下等式获得。
vj=cnn(W,Xj)+ϵj
ϵj∼N(0,σ2VI)
对于W中的每个权重 wk ,我们使用先前最常用的零均值球面高斯先验:
p(W|σ2W)=∏kN(wk|0m,σ2W)
项目的隐模型的条件分布:
p(V|W,X,σ2V)=∏MjN(vj|cnn(W,Xj),σ2VI)
其中X是项目的描述文件集合。使用从CNN模型获得的文档潜向矢量作为高斯分布的平均值,并将该项目的高斯噪声用作高斯分布的方差,作为CNN和PMF之间的桥梁的重要作用,有助于完全分析两种描述 文件和评分。
我们的CNN架构的目标是从项目文档中生成文档潜在向量,用于组合具有ε变量的项目潜在模型。 图2显示了我们的CNN架构,由四层组成; 1)嵌入层,2)卷积层,3)池层,4)输出层。
Embedding Layer
嵌入层将原始文档转换成表示下一个卷积层的文档的密集数字矩阵。 详细地说,关于该文件作为l 个单词的序列,我们通过连接文档中的单词的向量来将文档表示为矩阵。单词向量随机初始化或初始化用训练前的单词嵌入模型,如Glove。 通过优化过程进一步训练单词向量。 然后,文档矩阵 D∈Rp∗l 成为:
D=[⋅⋅⋅⋅wi−1,wi,wi+1⋅⋅⋅]
其中l 是文档的长度。p是单词 wi 的维度。
Convolution Layer
卷积层提取上下文特征。 正如我们在2.2节中讨论的,文档本质上不同于信息处理或计算机视觉的上下文信息。 因此,我们使用[2,11]中的卷积架构来正确分析文档。 上下文特征 cji∈R 由第j个共享权重 Wjc∈Rp∗ws 提取,其中窗口大小ws确定周围字的数量:
cji=f(Wjc∗D(:,i:(i+ws−1))+bjc) (1)
其中 * 是卷积运算符, bjc∈R 是 Wjc 的偏置,f是非线性激活函数。在诸如sigmoid,tanh和整流线性单元(ReLU)的非线性激活函数中,我们使用ReLU来避免梯度消失的问题,这导致缓慢的优化收敛,并且可能导致较差的局部最小值。 然后,具有 Wjc 的文档的语境特征向量 cj∈Rl−ws+1 由等式(1)构成:
cj=[cj1,cj2,...,cji,....,cjl−ws+1] (2)
然而,一个共享权重捕获到一种类型的上下文特征。 因此,我们使用多个共享权重来捕获多种类型的上下文特征,这使得我们能够生成与 Wc 的数目 nc 一样多的上下文特征向量。
Pooling Layer
池化层从卷积层提取代表性的特征,并且还通过构建固定长度特征向量的池操作来处理可变长度的文档。 在卷积层之后,文档被表示为 nc 上下文特征向量,其中每个上下文特征向量具有可变长度(即, l−ws+1 上下文特征)。 然而,这种表示方式有两个问题:1)上下文特征 ci 太多,其中大多数语境特征可能无助于提高性能,2)上下文特征向量的长度变化,这使得难以构建以下层。 因此,我们利用max-pooling,通过从每个上下文特征向量中提取最大上下文特征,将文档的表示形式减少为 nc 固定长度向量,如下所示。
df=[max(c1),max(c2),...,max(cj),...,max(cnc)]
其中 cj 是通过第j 个共享权重 Wjc 提取的长度为 l−ws+1 的特征。
Output Layer
一般情况下,在输出层,从上一层获得的高级特征应该转换为特定的任务。 因此,我们在用户和项目潜在模型的k维空间上投影 df 用于我们的推荐任务,最终通过使用传统的非线性投影产生文档潜向矢量:
s=tanh(Wf2{tanh(Wf1df+bf1)}+bf2) (3)
其中 Wf1∈Rf∗nc,Wf2∈Rk∗f 是投影矩阵, bf1∈Rf,bf2∈Rk 是 Wf1,Wf2 的偏置向量。
最终,通过上述过程,我们的CNN架构成为将原始文档作为输入的函数,并返回每个文档的潜在向量作为输出:
sj=cnn(W,Xj) (4)
其中W表示所有权重和偏置变量以防止杂乱, Xj 表示项目j的原始文档, sj 表示项目j的文档潜在向量。
为了优化用户潜在模型,项目潜在模型,CNN权重和偏差变量等变量,我们使用最大后验(MAP)估计如下。
maxU,V,Wp(U,V,W|R,X,σ2,σ2U,σ2V,σ2W)=maxU,V,W[p(R|U,V,σ2)p(U|σ2U)p(V|W,X,σ2V)p(W|σ2W)] (5)
由公式5,得到:
我们采用坐标下降,它在固定剩余变量的同时迭代地优化潜变量。 具体来说,同时暂时假设W和V(或U)为常数,那么等式(6)变成了U(或V)的二次函数。然后,通过简单地将优化函数L相对于 ui (或 vj )进行微分,可以以封闭形式分析地计算U(或V)的最优解:
ui←(VIiVT+λUIK)−1VRi (7)
vj←(UIiUT+λUIK)−1(URJ+λVcnn(W,Xj)) (8)
其中 Ij 是具有 Iij 的对角矩阵, j=1;::;M 作为其对角元素, Ri 是用户 i 的 (rij)Mj=1 的向量。 对于项目 j , Ij 和 Rj 分别类似地定义为 Ii 和 Ri 。 方程(8)示出了CNN的文档潜在矢量在生成项目潜在模型 vj 中的影响,其中 λV 是平衡参数。
然而, W 不能像 U 和 V 那样通过分析解决方案进行优化,因为 W 与CNN架构的特征密切相关,如最大池层和非线性激活函数。 尽管如此,我们观察到当 U 和 V 临时恒定时, L 可以解释为具有 L2 正则项的平方误差函数。
ε(W)=λV2∑Mj∥(vj−cnn(W,Xj))∥2+λW2∑|wk|k∥wk∥2+constant (9)
为了优化 W ,我们使用反向传播算法。 (回想一下, W 是每层的权重和偏差。)
总体优化过程( U,V和W 被替代地更新)被重复直到收敛。 通过优化的U,V和W,最后我们可以预测用户对项目的未知评分:
在每个迭代时期,所有用户和项目潜在模型在 O(k2nR+k3N+k3M) 中更新,其中 nR 是观测到的评分数。注意,在更新 W 时计算文档潜向矢量。用于更新 W 的时间复杂度由卷积层的计算支配,因此CNN的所有权重和偏置变量在 O(nc∗p∗l∗M) 中更新。 结果,每个时期的总时间复杂度为 O(k2nR+k3N+k3M+nc∗p∗l∗M) ,并且该优化过程与给定数据的大小成线性关系。
在本节中,我们评估ConvMF对现实世界数据集的实验性能。 我们广泛的实验结果表明1)当数据集非常稀疏时,ConvMF显着优于其他竞争对手,2)即使数据集变得密集,ConvMF对竞争对手的改进也将进一步增加,3)当数据集非常稀疏时,预训练的词嵌入模型有助于提高ConvMF的性能, 4)性能最好的参数验证ConvMF能很好地缓解数据稀疏性,以及5)ConvMF确实捕捉到微妙的语境差异。
Datasets
为了证明我们的模型在评分预测方面的有效性,我们使用了从MovieLens和Amazon获得的三个真实世界数据集。 这些数据集包括用户对1到5级别的项目的明确评分。亚马逊数据集包含作为项目描述文件的项目评论。 由于MovieLens不包括项目描述文档,因此我们从IMDB获取了相应项目的文档(即绘图摘要)。
类似于[23]和[24],我们对所有数据集的预处理描述文件如下:1)将原始文档的最大长度设置为300,2)删除停止字,3)计算每个单词的tf-idf得分,4) 删除文档频率高于0.5的语料库特定停止词,5)选择顶部8000个不同的单词作为词汇,6)从原始文档中删除所有非词汇单词。 结果,每篇文档的单词数量在MovieLens-1m(ML-1m)上分别为97.09,MovieLens-10m(ML-10m)为92.05,Amazon Instant Video(AIV)为91.50。
我们删除了在每个数据集中没有其描述文档的项目,特别是对于Amazon数据集的情况,我们删除了少于3个评分的用户。 因此,每个数据的统计显示三个数据集具有不同的特征(表1)。准确地说,即使通过预处理删除了几个用户,与其他数据相比,Amazon数据集仍然非常稀疏。
Competitors and Parameter Setting
我们将两个版本的ConvMF与以下基准进行了比较。
我们将U和V的隐特征维度的大小设置为50(如[24]),并且从0到1随机地初始化U和V。表2显示了每个模型通过网格搜索找到的最优的通用参数( λU , λV )。由于我们使用显式数据集,所以如果观察到 rij ,我们将CTR和CDL的精度参数设置为1,否则为0。 CDL参数的其余部分如[24]所述设定。
Implementation Detail
我们使用NVIDIA Geforce TitanX GPU的Python和Keras 库实现ConvMF。为了训练CNN的权重,我们使用了基于批量批量的RMSprop,每个小批量由128个训练项目组成。对于详细的CNN架构,我们使用以下设置:1)我们将文档的最大长度设置为300. 2-1)ConvMF:我们初始化了尺寸为200的随机的字隐向量。这些字隐向量将被训练 通过优化过程。 2-2)ConvMF +:我们通过尺寸为200的预训练词嵌入模型初始化了潜在向量。通过优化过程将训练这些字隐向量。 3)在卷积层中,我们使用各种窗口大小(3,4和5)来共享权重来考虑周围词的不同长度,并且我们使用每个窗口大小的100个共享权重。 4)代替与CNN权重相关的L2正规化,我们使用dropout并设置dropout率为0.2以防止CNN过度拟合。
Evaluation Protocol
为了评估每个模型在真实世界数据集中的整体性能,我们将每个数据集随机分为训练集(80%),验证集(10%)和测试集(10%)。 训练集至少包含每个用户和项目的一个评分,以便PMF处理所有用户和项目。 作为评估指标,我们使用均方根误差(RMSE),这与常规评分预测模型的目标函数直接相关。
表3显示了ConvMF,ConvMF +和三个竞争对手的总体评分预测误差。 请注意,“改进”表示“ConvMF”相对于最佳竞争对手的相对改善。 与三个模型相比,ConvMF和ConvMF +在所有数据集上都有显着的改进。
对于相对密集数据集的MovieLens数据集,ConvMF比最佳竞争对手CDL上的提升值在ML-1m数据集上为3.92%,ML-10m数据集为2.79%。 我们还观察到,PMF与两个竞争对手之间的性能差异在ML-1m数据集上是微不足道的。 这意味着给定足够的评分来生成用户和项目潜在模型,不能捕获上下文信息的文档分析方法无法产生更准确的潜在模型。 然而,ConvMF和PMF之间的显着性能差距表明,即使给出足够的评级,对文档的深入了解也可以更准确地调整潜在模型。
对于亚马逊数据集,如图3和图4所示,这是一个非常稀疏和倾斜的数据集,ConvMF在最佳竞争对手CDL上的改进是16.60%。 与相对密集和平衡的MovieLens数据集的改进相比,这种改进更加显着,这表明ConvMF即使使用稀疏和偏斜的数据也可以有效地分析文档来构建精确的项目潜在模型。 请注意,尽管CTR使用了项目文档,CTR的RMSE仍高于PMF。 这意味着在这种稀疏和偏斜的数据集中,由LDA部分CTR和由PMF部分CTR构建的用户潜在模型构建的项目潜在模型很可能不在同一潜在空间中。
我们通过从ML-1m数据集中随机抽样,生成不同稀疏度的七个附加数据集。如表4所示,ConvMF在所有稀疏范围内显着优于三个竞争对手。具体来说,我们观察到,当数据密度从0.93%上升到3.71%时,ConvMF在最佳竞争对手(CDL)上的改善从2.98%一直提高到3.92%。这意味着ConvMF通过在每个项目的评分数量均匀地增加时利用评分来产生更准确的潜在模型 - 评分数据变得密集,而评分数据的偏度几乎一致,图3和图4支持这一结论。为了更加精确,ML-1m(稀疏)和ML-1m(密集)数据集,其训练集由整个数据集的20%到80%分别与项目几乎相同,前者在物品上比后者有相对较少的评分数。 ConvMF的性能随着数据集密度的增加而不断增加,这表明ConvMF的CNN被良好地集成到PMF中以推荐任务。
与CTR和CDL不同,ConvMF能够利用使用预先训练的词嵌入模型,如Glove [18]。 因此,我们通过使用Glove的预先训练的词嵌入模型初始化ConvMF的CNN的嵌入层来调查预训练的词嵌入模型对我们的推荐任务的影响。
表3显示了ConvMF +与ConvMF在三个数据集上的边际变化:ML-1m,ML-10m和AIV数据集分别为-0.22%,0.35%和0.51%。 请注意,数据集的稀疏度依次为ML-1m,ML-10m和AIV。 尽管有微小的变化,我们观察到一致的趋势,随着评分数据变得越来越差,预先训练的词嵌入模型有助于提高ConvMF的性能。 这是因为预先训练的词嵌入模型的语义和句法信息补充了平分的不足。 我们还观察到,给定足够数量的评分来训练潜在模型,预先训练的词嵌入模型使ConvMF的性能恶化。 换句话说,当评分数据相对密集的时候,由于评分直接反映了用户和项目之间的关系,最好是充分利用评分而不是额外使用从外部文档获得的预先训练的词嵌入模型。
此外,我们研究了在不同的 λV 参数,ConvMF +对ConvMF的相对改进,这个参数在ConvMF中平衡了评分数据和描述文档的重要性。在图6中,对于MovieLens数据集,由于数据集具有相对较多的评分,对于不同的 λV ,预先训练的词嵌入模型对ConvMF性能影响不大。然而,对于非常稀疏的亚马逊数据集,预训练的词嵌入模型确实影响到ConvMF的性能。具体来说,当 λV 为100和1000时,ConvMF +与ConvMF相比,ConvMF +的性能在相同的参数设置下几乎达到了0.51%和2.74%,而ConvMF +的性能随其他 λV 值突然下降。换句话说,具有预先训练的词嵌入模型的相对较低或高的 λV 不能实现高性能。这种现象意味着当评分数据非常稀疏时,潜在模型被词嵌入模型拟合或过度拟合。然而,如图6所示,给定适当的 λV 值,采用预先训练的词嵌入模型,当评分数据不足时,ConvMF +的性能提高。
我们研究了三个参数对ConvMF的性能影响: p (潜在矢量的维数), λU 和 λV 。
图5显示了根据Amazon数据集上不同 p 值对于ConvMF和ConvMF +的RMSE变化。有趣的是,在ConvMF的情况下,p从100增加到300不会提高ConvMF的性能,而是显示降低。然而,在ConvMF +的情况下,p的增加显着降低RMSE。这表明当数据集非常稀疏时,通过采用预训练的词嵌入模型,ConvMF +的性能得到改善,其中包含的信息随着p越来越大而变得越来越丰富。
图7显示了 λU 和 λV 对三个真实数据集的影响。从图7(a)到(c)的最佳执行值 λU 和 λV 的变化,我们观察到当评分数据变得稀疏时, λU 减小,而 λV 增加以产生最佳结果。精确地,在ML-1m,ML-10m和AIV上,ConvMF的( λU , λV )分别为(100,10),(10,100)和(1和100)。请注意,当 λU 为高时,用户潜在模型几乎不更新。换句话说, λU 的高值意味着项目潜在模型倾向于投影到用户潜在模型的潜在空间(同样适用于 λV )。因此,当 λU 减小并且 λU 增加时,用户潜在模型被投影到项目潜在模型的潜在空间,其空间主要由描述文档而不是评分构成。这些最佳性能表明ConvMF通过平衡评分和描述文档的重要性来很好地缓解数据稀疏性。
ConvMF的性能受到由共享权重 Wc 提取的上下文特征的影响,并且每个上下文特征与短语相关联。在本节中,我们验证ConvMF是否能够通过比较由共享权重捕获的短语的每个上下文含义来区分微妙的语境差异。
具体来说,作为案例研究,我们从ML-10m数据集训练的模型中选择 W11c 和 W86c ,并比较共享权重捕获的短语的语境含义(表5)。由两个共享权重捕获的两个短语中的“信任”的含义似乎彼此相似。然而,两个短语中“信任”一词的语境含义存在微妙差异。实际上, W11c 捕获的短语中的“信任”用作动词,而由 W86c 捕获的短语中的“信任”用作名词。为了验证这一点,我们略微改变短语中的“信任”,并调查特征值的变化,如表5所示。当我们将 W11c 中的“短信”和“信念”替换为“相信”和“信念”时,前一个短语的特征值高于后一个词组的特征值。然而,对于 W86c 的情况,后一个短语的特征值高于前一个短语的特征值。这符合我们的期望,“相信”在句法上更类似于 W11c 所捕获的动词的“信任”的语境意义,而“信仰”在句法上更类似于 W86c 所捕获的“信任”的语境意义。当我们用“托马斯”取代“托马斯”,与“托马斯”有完全不同的含义时,“托马斯”的 和和 W86c 的值”返回值比“信”和“不信“低。
这种比较意味着ConvMF区分了“信任”一词的微妙语境差异。因此,我们得出结论,ConvMF捕获文档中单词的上下文意义,甚至可以通过不同的共享权重来区分相同单词的微妙上下文差异。
在本文中,我们讨论了在描述文档中考虑周边词和单词的语境信息提供了对描述文件的更深入的了解,并且我们开发了一种新颖的文档上下文感知推荐模型ConvMF,将CNN无缝集成到PMF中,以便在评分预测的描述文档中捕获上下文信息。广泛的结果表明,ConvMF显着优于最先进的竞争对手,这意味着ConvMF很好地处理了上下文信息的稀疏问题。此外,由于ConvMF基于MF的推荐模型的PMF,因此ConvMF能够扩展到组合其他仅基于考虑评分的基于MF的推荐模型,例如SVD ++ [12]。
作为下一个研究方向,由于众所周知,深度神经网络的无监督预训练对性能有很大的影响,我们尝试开发用于描述文档的卷积自动编码器。通过无监督的方式,它使得我们不仅可以预先训练嵌入层的权重变量,还可以预测ConvMF的CNN部分的所有剩余权重变量。我们期望自动编码器的无监督预训练显着提高了推荐的性能评级数据极其稀少。
This research was supported by Next-Generation Information Computing Development Program through the National Research Foundation of Korea(NRF) funded by the Ministry of Education, Science and Technology (No. 2012M3C4A7033344) and the ICT R&D program of MSIP/IITP [B0101-15-0307, Basic Software Research in Human-level Lifelong Machine Learning (Machine Learning Center)] and the Industrial Core Technology Development Program (10049079, Development of Mining core technology exploiting personal big data) funded by the Ministry of Trade, Industry
and Energy (MOTIE, Korea)