使用 Isotonic Regression 校准分类器

21 December 2015
1. 引言
对有监督机器学习问题,通常的训练流程包括这样几步:先建立起模型,然后在训练集上训练模型,如果有超参数,还需要在验证集上应用交叉验证以确定超参数,总之最终会得到一个模型。在这样的流程下,不断优化模型,如果在测试集上取得了较高的准确率、召回率、F-score或者AUC后,那事情就结束了吗,模型的输出结果是符合需要的吗?这并不一定。

当给定一个样本,大部分分类器能够输出该样本属于某类的分数,通常这个分数介于0到1之间,我们称之为概率,严格来讲,是后验概率,数学上表示为 \(P(Y=c|X)\) \( P ( Y = c | X ) \) ,(X)表示样本,(Y=c)表示样本属于类c。但是模型输出的概率经常与样本属于类c的真实概率有偏差。比如输出概率为20%,并不表示真实概率也是20%。模型估计出的概率存在偏差有这样几个原因:

模型假设与实际数据分布并不相符。比如:Naive Bayes模型的条件独立性假设,在实际业务中,经常看到Naive Bayes模型输出的概率会特别接近0或者1,容易看出这并不是(P(Y=c|X))的有效估计。

一些有效的特征没有被加入到模型中

训练算法存在不足,收敛得到的解并不是对业务而言的最优解

估计出的概率存在偏差是常见的,但是否需要校准则需要看需求。当只需要按照分数来做排序时,就可以不用校准模型;但有些场景需要准确的概率(P(Y=c|X)),那么就需要校准。举几个例子:

拒绝借贷的概率预估:一些银行或者P2P公司会建立机器学习模型来估计拒绝借贷的概率,通过设置阈值以自动过滤一批借贷请求。这需要准确的概率。

广告点击率预估:第一点,一般会设置CTR的最低阈值,低于这个阈值的广告就不会被展示,以此保证用户体验;第二点,点击率估计准的话,方便调试以(ctr^\alpha \times bid)为核心的ecpm计算策略。这些需要准确的概率。

在上一篇博文《面向稀有事件的 Logistic Regression 模型校准》中介绍了稀有事件下LR模型的校准方法,而这篇文章将讨论普适情况下的模型校准(calibration)[1]。理论上讲,应用这类模型校准方法与使用哪种模型没有关系,这些方法针对模型输出和真实输出先离线建立其校准模型,然后在线上实时应用。

下文主要围绕二分类来介绍模型校准方法,并在最后一节中介绍多分类下的模型校准。

  1. 校准方法
    首先引入reliability diagram,这是一种相对简单而且常用的可视化方法,用它能大致评估出当前模型的输出结果与真实结果有多大偏差。如论文[2]的下面这段介绍,如果能得到斜率为45度的线,那么意味着模型输出的结果是有效的估计。

On real problems where the true conditional probabilities are not known, model calibration can be visualized with reliability diagrams (DeGroot & Fienberg, 1982). First, the prediction space is discretized into ten bins. Cases with predicted value between 0 and 0.1 fall in the first bin, between 0.1 and 0.2 in the second bin, etc. For each bin, the mean predicted value is plotted against the true fraction of positive cases. If the model is well calibrated the points will fall near the diagonal line.

对分类模型的校准主要有2种方法:Platt scaling[3] 和 Isotonic regression[4]。Platt scaling使用LR模型对模型输出的值做拟合(并不是对reliability diagram中的数据做拟合),适用于样本量少的情形。Isotonic regression则是对reliability diagram中的数据做拟合,适用于样本量多的情形。样本量少时,使用isotonic regression容易过拟合。需要注意一点,无论是对platt scaling方法还是isotonic regression方法,为了得到一个有效的校准模型,需要用一个独立于训练集的验证集,否则会引入偏差。可以查阅论文[2],该文对这2种方法做了很好的对比分析。

在很多互联网业务上,比如广告定向投放,经常碰到样本量大的情况,所以下节将围绕适用于大样本量的isotonic regression来介绍模型校准方法。

  1. Isotonic regression及其在广告排序中的应用
    Isotonic regression,中文翻译为保序回归,是一种非参回归模型(nonparametric regression)。这种方法只有一个约束条件即,函数空间为单调递增函数的空间。基于reliability diagram,给定模型预测的分数 \(fi\) \( f i \) ,真实的分数 \(yi\) \( y i \) ,isotonic regression的模型公式为:

yi=m(fi)+ϵ(3) (3) y i = m ( f i ) + ϵ

其中,(m)表示保序函数(单调递增函数)。所以isotonic regression的目标函数为

m̂ =argminz(yiz(fi))2(19) (19) m ^ = a r g m i n z ∑ ( y i − z ( f i ) ) 2

Isotonic regression的一种求解算法是pool adjacent violators algorithm (简称PAVA, PAV算法),时间复杂度为(O(N)),算法流程并不复杂,详细内容可以查阅文章[2],另外文章[5]有该算法的动态效果图。PAV算法也是scikit-learn中isotonic regression库的求解算法。

论文[6][7]分别显示出Google和Microsoft在CTR预估模型的校准上用到保序回归。Facebook的论文[8]没用此方法,而是用上篇博文《面向稀有事件的 Logistic Regression 模型校准》中所说的prior correction方法。应用保序回归到CTR预估模型的校准上的流程大致有这样几步:

准备一份验证集(不同于用于训练CTR预估模型的训练集)用于训练保序回归模型。这份验证集的每个样本仍然是展示点击信息。

将[0, 1]区间划分为N个桶,每个桶的长度相同,比如(N=10^5)或者(N=10^6)。

用之前训好的CTR预估模型在此验证集上进行预测,给出每个样本的点击率估计值,基于这些点击率估计值,将验证集中的样本落入对应的桶中。

对每个桶,基于展示点击信息,计算落入样本的真实点击率。比如桶表示的区间为 \([1×105,2×105)\) \( [ 1 × 10 − 5 , 2 × 10 − 5 ) \) ,取平均值为 \(1.5×105\) \( 1.5 × 10 − 5 \) ,这个桶的真实点击率为 \(106\) \( 10 − 6 \) ,这样这个桶就得到reliability diagram图的一个点 \((1.5×105,106)\) \( ( 1.5 × 10 − 5 , 10 − 6 ) \) ,全部N个桶就构成了整个reliability diagram。

对上步生成的reliability diagram中的数据运行isotonic regression(这个数据量不大,(N=10^6)的数据大小也就几M空间,scikit-learn工具包完全可以胜任)

上述流程最终产出校准用的映射表,在线上加载这个映射表实时应用,比如在线上预估出的CTR值为(x),查校准用的映射表,判断(x)所在的桶,取得映射后的校准值(y)。在训练校准模型的流程中,有2点是有讲究的:第2步N的设置和第4步如何判定算出的真实点击率是可信的,这2点都需要结合实际情况来分析。

  1. 其他
    上面主要是对二分类问题讨论模型校准,关于多分类下的模型校准也有些文章。文章[9]介绍了platt scaling方法在多类别下的扩展思路。对于多类别下的isotonic regression,可以在查阅[10][11]。

在文章的最后,再推荐一些关于 platt scaling 和 isotonic regression 的英文文章,比如[12][13][14],它们都有不错的介绍,值得阅读。

参考文献
[1] Calibration (statistics) (来自Wikipedia)

[2] Alexandru Niculescu-Mizil, et al. Predicting Good Probabilities With Supervised Learning. ICML2005

[3] Isotonic regression (来自Wikipedia)

[4] Platt scaling (来自Wikipedia)

[5] Isotonic Regression

[6] H. Brendan McMahan, et al. Ad Click Prediction: a View from the Trenches. KDD2013

[7] Thore graepel, et al. Web-Scale Bayesian Click-Through Rate Prediction for Sponsored Search Advertising in Microsoft’s Bing Search Engine. ICML2010

[8] Xinran He, et al. Practical Lessons from Predicting Clicks on Ads at Facebook. ADKDD2014

[9] Calibrating classifier probabilities

[10] Adam Kalai, et al. The Isotron Algorithm: High-Dimensional Isotonic Regression.

[11] Quentin Stout. Isotonic Regression for Multiple Independent Variables.

[12] How is isotonic regression used in practice for calibration in machine learning

[13] Classifier calibration with Platt scaling and isotonic regression

[14] Speeding up isotonic regression in scikit-learn by 5,000x

转载自vividfree的博客:https://vividfree.github.io/%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0/2015/12/21/classifier-calibration-with-isotonic-regression

你可能感兴趣的:(算法积累)