信息检索指标直接优化的通用近似框架

1、直接优化信息检索指标的背景 

1.1、存在问题

直接优化信息检索的指标是信息检索的一大方向。主要包含两类方法,一类是将IR指标作为上界进行优化;另一类是使用平滑函数近似表示IR指标进行优化。

  • 直接优化IR指标方式很自然,但没有提供理论支持。
  • 代理函数与IR指标之间的关系未充分得到论证,代理函数是否能够表述IR指标的度量在优化过程中很有必要。
  • 现有代理函数不容易优化,很难扩展到其他的指标。例如SVM^{map}SVM^{ndcg}采用结构化的SVM来优化ap和ndcg指标。

1.2、提出优化框架解决问题

提出了一个优化框架来直接优化IR指标,可以有效避免下列3个问题

  • 基于统计学的一致性理论,在大量数据情况下,IR指标有界代理函数不是很复杂时,直接优化IR指标有较好的表现。基于泛化理论,进一步论证了直接优化IR指标的效果。
  • 提出的框架可以准确近似地表示任何基于位置的IR指标,并将IR的优化转换为代理函数的优化。直接优化IR 度量指标的难点在于,度量是基于位置的,基于位置的指标不连续也不可微。如果可以连续可微地表示基于位置的度量,则可以优化任何基于位置的度量指标。实验表明,高精度近似表示,高效率。
  • 很容易导出学习算法来优化框架中的代理函数

1.3、主要贡献

  • 为直接优化IR 指标提供了理论依据
  • 提供了一个基于位置的IR指标度量框架
  • 给出了ap和ndcg两个指标优化的示例

2、相关工作

2.1、常见IR 指标

2.1.1、p@k

top k个doc中相关doc的比例

信息检索指标直接优化的通用近似框架_第1张图片

2.1.2、ap

两级相关性判断的标准,位置平均的p@k

信息检索指标直接优化的通用近似框架_第2张图片

2.1.3、map

所有query的ap均值

2.1.4、NDCG@k

NDCG@k是多级相关性评估标准的IR评估指标

信息检索指标直接优化的通用近似框架_第3张图片

2.2、直接优化IR指标的常见方法

SVM^{map}直接优化1-ap的上界

SVM^{ndcg} 直接优化1-ndcg的上界

AdaRank设定为指数函数,该函数可以设定为1-ap、1-ndcg的上界

SoftRank将随机性引入相关性分数来平滑ndcg指标

3、理论论证

3.1、效果度量

M(f,q)为针对指标M的预期度量(测试度量),M_{m}(f,q)为针对指标M的经验度量(训练度量),具体公式表示如下:

信息检索指标直接优化的通用近似框架_第4张图片

3.2、两个理论

3.2.1、理论1:一致性理论

如果排序函数空间F不复杂,并且IR度量M(q, f) 在函数空间 F 上一致有界,则训练
学习排序算法的效率M(f)一致收敛于测试效率M(f)。

对ndcg、map、p@k其范围为[0,1]之间,IR度量M(q, f)在函数空间上是一致有界的

3.2.2、理论2:泛化性理论

测试效率和最佳测试效率有上界,表述如下:

当query量足够大时,直接优化排序指标是最佳的优化方式

3.3、remarks

像DCG无界的指标,不满足理论1的一致有界条件,代理函数不能保证取得较好的效果。

两个理论只在大样本条件下成立

代理函数和IR指标的关系没有论证,无法保证直接优化的方式优于其他方式 

4、IR指标代理框架

4.1、重要4步

  • 1、重新定义IR指标,将IR指标按照依据位置索引的变更为依据doc索引。新定义的公式中包含位置函数和可选的截断函数,其中位置函数和截断函数不可导。
  • 2、用rank score的平滑函数来近似位置函数
  • 3、用位置平滑函数近似截断函数
  • 4、应用优化技术来优化近似指标(代理函数)

4.2、IR指标定义

X为q的一系列doc,x为X中的一个,f为x的排序打分函数,x的分数记为s_{x},其表述如下:

 s_{x}=f(x,\theta ),x\in X

根据s_{x}可以得到一个排序\pi (x),根据label会有一个原始的相关度排序r(x),\pi (x)和r(x)之间可以通过IR指标进行度量,公式化表示如下:

I(A)=\left\{\begin{matrix} 1 & if A is true\\ 0& otherwise \end{matrix}\right.

4.3、IR指标重新定义

4.3.1、ap指标重定义

信息检索指标直接优化的通用近似框架_第5张图片

4.3.2、ndcg指标重定义 

重定义中的位置函数和截断函数均不可导

4.4、位置近似函数

4.4.1、排序分位置表示

信息检索指标直接优化的通用近似框架_第6张图片

位置可视为排序分的产出,位置和截断函数均不连续可导

4.4.2、平滑函数替代位置表示

用逻辑回归函数表示指示函数I(s_{x,y}<0)

sigmiod函数预测为0的部分

信息检索指标直接优化的通用近似框架_第7张图片

逻辑函数是sigmoid函数的特例,其他的sigmiod函数也满足要求

4.4.3、替换后的位置表示

用平滑函数替代后的位置表示

信息检索指标直接优化的通用近似框架_第8张图片

4.4.4、位置表示与近似位置表示对比

信息检索指标直接优化的通用近似框架_第9张图片

位置近似表示和真实表示几乎接近

4.5、截断函数近似

截断函数为两个分数的差值,可以将位置的差值直接进行sigmiod,引入截断函数表示后的ap指标表示如下所示:

信息检索指标直接优化的通用近似框架_第10张图片

4.6、代理函数优化

指标函数使其变得连续可微,简单的优化方法就能直接进行优化,使其最大。

5、理论分析

5.1、位置近似理论分析

正值最小差距表示

信息检索指标直接优化的通用近似框架_第11张图片

理论3:给定一个包含n个doc集的X,当\alpha>0时,近似位置表示可以以如下精度接近真实位置表示

\delta _{x}\alpha很大时,位置表示和近似位置表示接近

理论3证明

信息检索指标直接优化的通用近似框架_第12张图片

信息检索指标直接优化的通用近似框架_第13张图片

理论4:给定一个包含n个doc集的X,当\alpha >0时,近似位置表示接近真实位置表示的精度在如下区间中

5.2、度量近似理论分析

理论5:误差\varepsilon <0.5时,近似ap度量和真实ap度量精度上界如下:

理论6:ndcg度量的精度上界如下所示:

5.3、精度近似的理由

直接指标优化表现良好,近似指标精度高,能达到同等的效果。

理论7:近似度量在测试集上的表现和最优表现有上界

信息检索指标直接优化的通用近似框架_第14张图片

6、实验结论

6.1、数据集

采用LETOR5数据集来进行实验结果验证,LETOR上的TD2003 (50个query,每个对应1000个doc)和 TD2004(75个query,每个对应1000个doc,2个相关性等级(相关/不相关),44维query-doc对特征表示)去测试ApproxAP算法。LETOR上的OHSUMED(106个query,16,140个query-doc pair样本,3个相关性档位(完全相关、部分相关、不相关),25维特征表示)被用来去测试ApproxNDCG算法。

6.2、IR指标近似度量

IR指标近似和真实IR指标之间的差距,AP、NDCG指标之间差距公式表示

固定超参\beta=10,ap error随\alpha超参变化的曲线图

信息检索指标直接优化的通用近似框架_第15张图片

\alpha=100时,近似IR指标估计和真实指标估计准确率高达98%

固定超参\alpha=100,ap error随\beta超参变化的曲线图

信息检索指标直接优化的通用近似框架_第16张图片

ndcg度量精度和精度随超参变化的曲线

信息检索指标直接优化的通用近似框架_第17张图片

ndcg和ap能得出一样的结论

6.3、approxNDCG和approxAP的实验对比

6.3.1、approxAP指标

approxAP和AdaRank.MAP、SVMmap结果对比,AdaRank.MAP从论文中引用,SVMmap结果为论文作者提供参数跑出

信息检索指标直接优化的通用近似框架_第18张图片

6.3.2、approxNDCG指标

NDCG@n指标在SoftRank、 AdaRank.NDCG 、 ApproxNDCG中的表现分别为0.6680, 0.6589 、 0.6698。

不同位置的表现,3种算法随位置的变化曲线如下:

信息检索指标直接优化的通用近似框架_第19张图片

6.4、讨论

选择哪个指标更加合适?

论文中给出,只有两个相关性等级时,使用MAP指标比较合适;当有多个相关性档位时,选择NDCG指标比较合适。

在训练时,就M指标,直接优化M指标是否比直接优化M'指标更好?

如果指标M'包含了M,优化M'可能比优化M更好

信息检索指标直接优化的通用近似框架_第20张图片

在TD2003数据集上approxAP和approxNDCG表现相当,在TD2004数据集上approxAP较approxNDCG表现好。直接优化M指标是否比直接优化M'指标无法定论,还有待调研论证。

7、总结

此paper为直接优化IR指标提供了理论依据;在一定条件下,直接优化IR指标是合理的;直接优化指标可能是排序学习最优的方法之一。

提出了基于位置IR指标直接优化的整体框架,核心思想在于使用排序分近似表述IR指标。主要有3个优点,1)近似估计法简单通用;2) 许多现有技术可以直接用于优化,且优化本身是与测量无关的;3)设置合理的参数可以获得较高的近似逼近。以ap和ndcg为例,展示了如何优化框架,在公开数据集上验证了理论分析的正确性和有效性。

8、参考文献

https://arxiv.org/pdf/2102.07831.pdf   NeuralNDCG

排序学习-4.ApproxNDCG与NeuralNDCG - 知乎

https://www.microsoft.com/en-us/research/wp-content/uploads/2016/02/tr-2008-164.pdf ApproxNDCG

你可能感兴趣的:(机器学习,人工智能)