PU-Learning

速读

论文:Learning From Positive and Unlabeled Data: A Survey

从方法上讲,主要有两种。

  • two step: 先对数据用聚类或者任一相关算法分类(选出可信度高的neg案例),然后再放到任一分类网络里训练,然后再根据训练的结果分类未标记,再次训练,直到模型稳定或者loss较小。 基于可分性和连续性假设
  • biased learning: 全部将未标注作为neg放到网络里训练。其中关键之处在于如何做数据均衡。有三种方法,a. 从阈值着手,b. 从正负样例权重着手 c. 从loss着手。 基于SCAR假设,个人理解为正负样例分布不重叠

应用:人群包,lookalike. 总的就是如何找到相似用户。

你可能感兴趣的:(推荐系统,机器学习,论文笔记)