Paper:Matrix completion by deep matrix factorization
Journal:Neural Networks
Year:2018
(1)传统的矩阵填补模型(matrix completion)都是线性模型,不能应用于非线性的数据,而现实世界中,大部分数据都具有非线性结构。传统模型都是线性的原因,文中是这样解释的:
The low-rank assumption indicates that the data from linear latent variable models, in which the latent varibles are much fewer than the oberserved variables(注:针对文中这样的解释,我不太理解,为什么基于低秩的假设就表明数据是来自线性的隐变量模型,有哪位大神读过该篇论文的话,可以在评论区给出自己的见解,不胜感激)
(2)现有的非线性矩阵填补模型(matrix completion)对非线性的操作有限。例如,《Goal-Directed Inductive Matrix Completion》只将非线性操作应用到side information(辅助信息)上。
(3)现有的非线性矩阵填补模型的应用有限。例如,《Recognizing emotions from abstract paintings using non-linear matrix completion》中的模型只能应用于分类任务,而不能应用于矩阵填补常见的问题,例如,图像修复、协同过滤。
(1)传统矩阵填补模型,以矩阵分解(MF)为例,如下:
其中 g(.) g ( . ) 表示激活函数,常用的激活函数有sigmoid函数、tangent函数。激活函数的选择,是根据模型输出数据的范围确定的。
(5)通过单层模型或多层模型的训练可以得到非线性映射 g(.) g ( . ) 以及参数 W,b W , b 。这样就可以填补初始矩阵中的空白项了,计算公式如下:
采用了两种非线性的优化方法:BFGS、以及iRprop+。BFGS适用于测试数据矩阵较小的情况,iRprop+则适用于测试数据矩阵较大的情况。这两种优化方法不在这里阐述了,有兴趣的可以查看相应的资料,在参考资料中,我也给出了两种优化方法相对应的论文引用。
数据集为如下两个:
- Jester-joke dataset-1
- MovieLens 100k
归一化平均绝对误差NMAE(normalizedmeanabsolute error),公式如下:
[1]Alameda-Pineda X, Ricci E, Yan Y, et al. Recognizing emotions from abstract paintings using non-linear matrix completion[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016: 5240-5248.
[2]Fan J, Cheng J. Matrix completion by deep matrix factorization[J]. Neural Networks, 2018, 98: 34-41.
[3]Si S, Chiang K Y, Hsieh C J, et al. Goal-directed inductive matrix completion[C]//Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. ACM, 2016: 1165-1174.