多目标

多目标学习一般做法:
1、多模型建模
2、多任务学习(MTL)
各有优缺点,对于前者,优点是:独立建模,针对特定目标容易深度优化;缺点是:模型难融合。对于后者,优点是:任务相关性比较强的时候,能提升综合价值;但恰恰由于参数共享,当任务之间相关性不强时,会相互干扰而影响学习效果。
多任务学习是机器学习的一种范式,并不局限于特定问题或模型。

推荐排序的演进划分成四个阶段,从线性模型+大规模人工组合特征,到非线性模型+少量人工特征,再到深度学习模型+用户行为序列特征,最后是从单目标优化到多目标优化。
polling:https://www.cnblogs.com/makefile/p/pooling.html

NFM:https://github.com/hexiangnan/neural_factorization_machine/blob/master/NeuralFM.py
从公开资料上了解到美图的实践,排序模型从传统的LR+特征工程,到NFM模型以及改进的NFwFM ,到最后的多目标学习。
17年论文中介绍的NFM模型结构如下:

1.png

美图在此基础上做了引入右侧多层感知机学习隐式的高阶特征交叉
2.png

参考资料:https://www.infoq.cn/article/0ueIPm2VFrOqECLU3316
https://www.infoq.cn/article/0xdVNHshA02egyr1QaAX

多任务的缺点是在参数共享的情况下,如果两个任务有不相关的部分,两个任务就会互相干扰,从而影响效果。学术界将这种现象称为共享冲突。

多目标:
https://zhuanlan.zhihu.com/p/89387632
https://zhuanlan.zhihu.com/p/82584437
http://wd1900.github.io/2019/09/15/Recommending-What-Video-to-Watch-Next-A-Multitask-Ranking-System/

你可能感兴趣的:(多目标)