最近终于忙完了Learning to Rank的作业,同时也学到了很多东西.我准备写几篇相关的文章简单讲述自己对它的理解和认识.第一篇准备讲述的就是Learning to Rank中Pointwise的认识及PRank算法的实现.主要从以下四个方面进行讲述:
1.学习排序(Learning to Rank)概念
2.基于点的排序算法(Pointwise)介绍
3.基于顺序回归(Ordinal Regression-based)的PRank排序算法
4.PRank算法Java\C++实现及总结
学习排序概念推荐转载的文章:机器学习排序之Learning to Rank简单介绍
1.首先,为什么会出现学习排序呢?
传统的排序方法是通过构造一个排序函数实现,在Information Retrieval领域一般按照相关度进行排序。比较典型的是搜索引擎中一条查询query,将返回一个相关的文档document,然后根据(query,document)之间的相关度进行排序,再返回给用户。
而随着影响相关度的因素(如PageRank)变多,Google目前排序方法考虑了200多种方法。这使得传统排序方法变得困难,人们就想到通过机器学习来解决这一问题,这就导致了Learning to Rank的诞生。
2.然后是学习排序的基本流程如下图所示.
很明显它就是基本步骤就是通过训练集数据(Train Set)学习得到模型h,然后通过该模型去对测试集数据(Test Set)进行计算和排序,最后得到一个预测的结果.
机器学习解决排序学习问题可分为3类:
1.基于回归排序学习(regression-based algorithms):序列转为实数
2.基于分类排序学习(classification-based algorithms):二值分类
3.基于顺序回归排序学习(ordinal regression-based algorithms)
但是这里我想讲述的是最常见的分类,它们应该与上面是交叉的:
1.基于点的LTR算法——Pointwise Approach
2.基于对的LTR算法——Pairwise Approach
3.基于列的LTR算法——Listwise Approach
Pointwise处理对象是一篇文档,将文档转化为特征向量后,机器学习系统根据训练得出的模型对文档进行打分(注意:训练集学习出权重模型去给测试集文档打分是LTR中非常经典的用法),打分的顺序即为搜索排序的结果.
Score(x)=w1*F1+w2*F2+w3*F3+...+w136*F136
其中w1-w136为136维对应权重参数,由训练集训练得到;F1-F136为测试文档给出136个特征值.
原数据有5个类标(0-4代表相关程度:Perfect>Excellent>Good>Fair>Bad),则设置5个阈值来区分所得分数的分类.如果得分大于相关阈值,则划分为相应的类.常见算法包括:Prank、McRank
下面是我自己画的一张图,其中四根红线是四个阈值,它把这些文档集划分为了五个不同类.每当一个新的文档来测试,它都会根据已有模型计算出相应分数,再根据分数和阈值划分类即可.
PRank算法是基于点的排序学习,顺序回归学习问题.其算法主要参考Kolby Crammer & Yoram Singer(From:The HeBrew University,以色列希伯来大学)论文《Pranking with Ranking》.网址如下:
http://papers.nips.cc/paper/2023-pranking-with-ranking.pdf
算法过程如下:
1.Java代码实现
代码中有详细注释,每个步骤都是按照上面的算法进行设计的.左图是主函数,它主要包括:读取文件并解析数据、写数据(该函数可注释掉,它是我用于验证读取是否正确时写的)、学习排序模型和打分预测.右图是预测排序结果的算法.
package com.example.pointwise; import java.io.BufferedReader; import java.io.File; import java.io.FileInputStream; import java.io.FileReader; import java.io.FileWriter; import java.io.IOException; import java.io.InputStreamReader; import java.util.ArrayList; import java.util.List; /** * Pointwise基于点学习排序(Learning to Rank)的Prank算法 * @author Eastmount YXZ * 参考资料 * 该算法从136维数据集改成46维数据集,中间可能有注释不一致现象 * (原始论文) http://papers.nips.cc/paper/2023-pranking-with-ranking.pdf * (新浪) http://blog.sina.com.cn/s/blog_4c98b960010008xn.html * (CSDN)http://blog.csdn.net/pennyliang/article/details/17333373 */ public class Prank { public int RANK_NUM = 10000; //记录总样本数 (总行数) public int RANK_CATA = 46; //排序的特征维数 (数据集136维 后改为46维) public int RANK_ITER = 1; //排序的迭代次数 (原文迭代1次) public int RANK_LABEL= 3; //排序划分的阈值 (微软数据集划分5类 0-4) 3维全相关,部分相关,不相关 //采用该方法实现动态数组添加数据 List<Float> weight = null; //特征值的权重向量 (46个 136个) //训练集数据 每行共48个数据 (46个特征值 二维数组-feature[行号][46] + 真实Label值0-2 + qid值) List<List<Float>> x = null; Float [] b = null; //阈值数 K+1个(RANK_LABEL+1) public int sumLabel = 0; //文件总行数 (标记数) /** * 函数功能 读取文件 * 参数 String filePath 文件路径 */ public void ReadTxtFile(String filePath) throws IOException { String encoding="GBK"; File file = new File(filePath); //文件 BufferedReader bufferedReader = null; try { //判断文件是否存在 if(file.isFile() && file.exists()) { //输入流 InputStreamReader read = new InputStreamReader(new FileInputStream(file), encoding); bufferedReader = new BufferedReader(read); String lineTxt = null; sumLabel =0; //记录总样本数 x = new ArrayList<List<Float>> (); //按行读取数据并分解数据 while((lineTxt = bufferedReader.readLine()) != null) { String str = null; int lengthLine = lineTxt.length(); List<Float> subList=new ArrayList<Float>(); x.add(subList); //获取数据 字符串空格分隔 String arrays[] = lineTxt.split(" "); for(int i=2; i<arrays.length; i++) { if(i>=48) { //#号后跳出 后面注释不进行读取 continue; } //获取特征:特征值 如1:0.0004 String subArrays[] = arrays[i].split(":"); int number = Integer.parseInt(subArrays[0]); //判断特征 float value = Float.parseFloat(subArrays[1]); subList.add(value); } //获取每行样本的Label值 i=0 (五个等级0-4) subList.add(Float.parseFloat(arrays[0])); //获取qid值 i=1 String subArrays[] = arrays[1].split(":"); subList.add(Float.parseFloat(subArrays[1])); //总行数+1 sumLabel++; } //End 按行读取 read.close(); } else { System.out.println("找不到指定的文件\n"); } } catch (Exception e) { System.out.println("读取文件内容出错"); e.printStackTrace(); } finally { bufferedReader.close(); } } /** * 函数 写文件 * 参数 String filePath 文件路径 * 注意 该函数还是136维数据,但算法该成46维 故不使用该函数 */ public void WriteTxtFile(String filePath) { try { System.out.println("文件输出"); String encoding = "GBK"; FileWriter fileWriter = new FileWriter(filePath); //按行写文件 for(int i=0; i<sumLabel; i++) { fileWriter.write("样本行数"+i+"\r\n"); fileWriter.flush(); String value; //写数据特征值 136 for(int j=0;j<136;j++) { value = String.valueOf(x.get(i).get(j)); //输出第i行 第j个特征值 fileWriter.write(value+" "); } //label等级 qid fileWriter.write("\r\n"); value = String.valueOf(x.get(i).get(136)); //label fileWriter.write(value+" "); value = String.valueOf(x.get(i).get(137)); fileWriter.write(value+" "); fileWriter.write("\r\n"); } fileWriter.close(); } catch(Exception e) { e.printStackTrace(); } } /** * 学习排序 * 主要功能计算136维权重w和划分五个等级的阈值b */ public void LearningToRank() { int realRank; //真实Label等级 int predictRank; //预测Label等级 Float[] y= new Float[RANK_LABEL+1]; //new label Float tao [] = new Float[RANK_LABEL+1]; //初始化权重 全为0 weight = new ArrayList<Float>(); for(int i=0; i< RANK_CATA; i++){ //特征向量的维数 weight.add((float) 0.0); } //初始化阈值 b[0]=b[1]=[2]=0 b[3]=正无穷大 b=new Float[RANK_LABEL+1]; for(int i=0; i<RANK_LABEL; i++){ //b[0] b[1] b[2] b[i] = (float) 0.0; } b[RANK_LABEL] = Float.POSITIVE_INFINITY; //b[3] /* * 开始计算权重 * 注意:迭代主要参照CSDN博客,它没有退出.同时没有损失计算,其结果差别不大 * 同时原论文中Loop 1...T是总行数 并没有讲述迭代 */ for(int iter = 0; iter < RANK_ITER; iter++){ //总的迭代次数 RANK_ITER=1 for(int i=0; i< RANK_NUM; i++){ //总样本数 可以设置读取txt中部分 //测试顺序 predictRank = 1; //权重*特征向量-阈值 float sumWX = (float) 0.0; for(int z=0; z<46; z++) { sumWX += weight.get(z)*x.get(i).get(z); } //预测排名 for(int r=1;r<=RANK_LABEL;r++) { //阈值数 RANK_LABEL=3 if(sumWX-b[r]<0) { predictRank = r; break; } } //获取真实等级 即数据集中第一个Label数字 realRank = Math.round(x.get(i).get(46)); //四舍五入并转整数 if(realRank!=predictRank) { for(int r=1; r < RANK_LABEL; r++){//若136维数据 5个值时 if(realRank <= r) { // y形如 1 1 -1 -1 -1 y[r] = (float)-1; } else { y[r] = (float)1; } } float tao_sum = (float) 0.0; //tau和 for(int r=1; r < RANK_LABEL; r++) { //三个等级 //权重*特征向量-阈值 if((sumWX - b[r]) * y[r] <= 0) { tao[r] = y[r]; } else { tao[r] = (float) 0.0; } tao_sum += tao[r]; } //更新数据 for(int z=0; z<RANK_CATA; z++) { //136维权重 float newWeight = weight.get(z) +tao_sum*x.get(i).get(z); weight.set(z, newWeight); } for(int r=1;r < RANK_LABEL;++r) { //5个阈值 b[r] = b[r] - tao[r]; } } //End if else { continue; } } //End 样本总数 } //End 迭代次数 } /** * 函数 预测排序结果 * 主要 通过LearningToRank()函数计算的得分计算分数,再根据阈值划分等级 */ public void PredictNewLabel() { float rightCount = 0; float score = (float) 0.0; for(int i=0; i < RANK_NUM; i++){ int predict_r = 1; //权重*特征向量-阈值 (W*X-B) float sumWX = (float) 0.0; for(int z=0; z<46; z++) { sumWX = sumWX + weight.get(z) * x.get(i).get(z); } for(int r=1; r<= RANK_LABEL; r++){ //5 if(sumWX < b[r]){ score = sumWX; predict_r = r; break; } } //计算正确概率 if(predict_r == Math.round(x.get(i).get(46))) //46维数据 46-label 47-qid 0-45特征值 { rightCount++; } System.out.println("predict="+predict_r+" score="+score+" real="+x.get(i).get(46)); } //输出结果 System.out.println("正确率:"+rightCount/(float)RANK_NUM); System.out.println("输出阈值"); for(int i= 1;i<4;i++){ System.out.println(b[i]+" "); } } /** * 主函数 */ public static void main(String[] args) { String fileInput = "train.txt"; String fileOutput = "output.txt"; String fileRank = "rank.txt"; //实例化 Prank prank = new Prank(); try { //第一步 读取文件并解析数据 prank.ReadTxtFile(fileInput); //第二步 输出解析的基础数据 //prank.WriteTxtFile(fileOutput); //第三步 学习排序训练模型 prank.LearningToRank(); //第四步 测试打分排序 prank.PredictNewLabel(); } catch (Exception e) { // TODO Auto-generated catch block e.printStackTrace(); } } /** * End */ }运行结果如下图所示,算法流程分析都很清楚,同时我采用的是下标从0开始取.b[1]和[2]两个阈值即可划分为3个不同的类,b[3]=Infinity.但是预测结果总是一个值,不知道为什么?可能算法中有些细节错误,纠结了我很长时间.如果知道希望告知.下面是采用C++实现.
#include <iostream> #include <fstream> #include <limits> #include <iomanip> using namespace std; #define K 3 //排序的序数,即如排成全相关,部分相关,不相关,序数就是3 #define N 46 //特征的维数 double *w; //权值 int *b; //偏置项 int *y; int *t; //从文件中获得特征值 X 存储特征向量 yt 存储标签 bool getData(double *x,int &yt,ifstream &fin) { if (fin.eof()) return false; char data[1024]; int index = 1; fin.getline(data,1024); char *p = data; char q[100]; q[0] = p[0]; q[1] = '\0'; yt = atoi(q) + 1; // 标签 p = p+8;//跳过qid:xx的冒号 for( ; *p != '\0'; ++p) { if(*p == ':') { ++p; int i = 0; for(i=0; *p != ' '; i++, p++) { q[i] = *p; } q[i] = '\0'; x[index ++] = atof(q); } } return true; } //各变量进行初始化 void Initialize() { w = new double[N+1]; b = new int[K+1]; y = new int[K+1]; t = new int[K+1]; int i; int r; for(i=1; i<=N;i++) w[i] = 0 ; for(r=1;r<=K-1;r++) b[r] = 0; b[K] = std::numeric_limits<int>::max();//无穷大 } //利用Prank算法进行训练 void PrankTraining(double *x,int yt) { int i; int r; double wx = 0; //存储 W*X 的计算结果 for(i =1; i<=N; i++) //计算 W*X wx += w[i] * x[i]; for(r =1; r<=K; r++) //找到满足 W*X-b<0 的最小 r { if(wx - b[r] <0 ) break; } int yy = r ; //预测值 if (yy == yt) //预测正确,直接返回 { return; } else //预测错误,权值更新 { for(r=1; r<K; r++) { if(yt <= r) y[r] = -1; else y[r] = 1; } for(r=1; r<K; r++) { if ((wx-b[r])*y[r] <= 0) { t[r] = y[r]; } else t[r] = 0; } //更新 W 和 b int sumt = 0; for(r=1; r<K; r++) sumt = sumt + t[r]; for(i=1;i<=N;i++) //更新 W w[i] = w[i] + sumt*x[i]; for(r=1; r<K; r++) //更新 b b[r] = b[r] - t[r]; } } //利用得到的model进行测试 int Pranking(double *x) { int i; int r; double wx = 0; for(i=1; i<=N; i++) wx = wx + w[i] * x[i]; for(r=1; r<=K; r++) if(wx - b[r] <0 ) { cout<< " "<<wx; break; } return r; } int main(int argc,char **argv) { int right=0,wrong=0;//排正确和错误的样本数 //输入训练数据文件名 string sin_train = "train.txt"; ifstream fin_train(sin_train.c_str()); if(fin_train.fail()) { cout << "can't open the traningsetFile!"<<endl; return -1; } //输入输出模型文件名 string sout_model = "model.txt"; ofstream fout_model(sout_model.c_str()); if(fout_model.fail()) { cout << "can't open the ModelFile!"<<endl; return -1; } //输入测试数据文件名 string sin_test = "test.txt"; ifstream fin_test(sin_test.c_str()); if(fin_test.fail()) { cout << "can't open the testsetFile!"<<endl; return -1; } // 输入输出结果文件名 string sout_result = "result.txt"; ofstream fout_result(sout_result.c_str()); if(fout_result.fail()) { cout << "open resultFile failed!"<<endl; return -1; } double *tr = new double[N+1]; // 特征向量 int yt; // 标签 Initialize(); //初始化权值w和偏置项b int i = 0; //读入训练数据进行训练得到model while(true) { if (getData(tr,yt,fin_train)) { PrankTraining(tr,yt);//训练 } else break; } //将得到的w和b写入文件 char buff[128]; cout<<"训练出的w为:\n"; for(i=1; i<=N; i++) //写 w { cout<<setw(8)<<w[i]<<'\t'; memset(buff,0,sizeof(buff)); sprintf(buff,"%f",w[i]); fout_model << buff << " "; } fout_model<<endl; cout<<"\n\n训练出的b为:\n"; for(i = 1; i<K;i++) //写 b { cout<<b[i]<<'\t'; memset(buff,0,sizeof(buff)); sprintf(buff,"%d",b[i]); fout_model << buff << " "; } //读入测试数据进行测试得到正确率 while(true) { if (getData(tr,yt,fin_test)) { int yy = Pranking(tr); char p[2]; p[0] = yy -1 + 48; p[1] = '\0'; fout_result << p << endl; if (yy == yt) right ++; else wrong ++; } else break; } cout<<"\n\n排正确的个数为"<<right<<",错误的个数为"<<wrong<<",正确率为%"<<right*100*1.0/(right+wrong)<<endl; cout<<b[0]<<'\t'<<b[1]<<'\t'<<b[2]; //释放申请的空间并关闭文件 delete []w; delete []y; delete []t; delete []b; delete []tr; fin_train.close(); fin_test.close(); fout_result.close(); fout_model.close(); system("PAUSE"); return 0; }
最后讲述在该算法中你可能遇到的问题和我的体会:
1.由于它是读取文件,可能文件很大(几百兆或上G).最初我设计的数组是double feature[10000][136],用来存储每行特征值,但是如果行数太大时,What can do?此时我们应该设置动态数组<List<List<Float>>>x解决.
2.最初阅读了CSDN的Prank代码,它迭代了1万次,最后查看原文发现它并没有迭代.所以你可以参考C++那部分代码,每次只需要读取一行数据处理,并记住上一次的46维权重和阈值即可.
3.为什么我从136维数据转变成了46维数据?
你打开136维特征值数据时,你会发现它的值特别大,不论是Pointwise,还是Pairwise和Listwise都可能出现越界,一次内积求和可能就10的7次方数据了.但是46维数据,每个特征值都是非常小的,所以如果用136维数据,你需要对数据进行归一化处理,即数据缩小至-1到1之间.
4.评价Pointwise、Pairwise和Listwise指标通常是MAP和NDCG@k,后面讲述基于对的学习排序和基于列的学习排序会具体介绍.
5.你可能会发现数据集中存在vail验证集,以及交叉验证、交叉熵、梯度下降后面都会讲述.但由于相对于算法,我对开发更感兴趣,很多东西也是一知半解的.
6.最后要求该算法到Hadoop或Spark实现并行化处理,但算法的机制是串行化.有一定的方法,但我没有实现.我们做的是一种伪并行化处理,即模型得到权重后进行并行化计算分数排序.
最后简单附上我们的实验结果,后面的算法实验结果是基于MAP和NDCG@k