mahout算法源码分析之Collaborative Filtering with ALS-WR (四)评价和推荐

Mahout版本:0.7,hadoop版本:1.0.4,jdk:1.7.0_25 64bit。

首先来总结一下 mahout算法源码分析之Collaborative Filtering with ALS-WR (三),这个写了三篇,基本都是写QR分解,然后矩阵进过处理得到U或者M的过程,但是还是没有讲出个所以然来。mahout官网上说其是根据这篇文献得来的Large-scale Parallel Collaborative Filtering for the Netflix Prize,本来我是想翻译这篇来着,就是为了想弄清楚这个所谓的QR分解算法,但是感觉好像和mahout中的实现不同。(这篇在csdn上面已经有人翻译了,但是真的只是翻译而已,并没有进行讲解,结果还是自己来看),其中主要的是下面的matlab部分代码:

mahout算法源码分析之Collaborative Filtering with ALS-WR (四)评价和推荐

这里是使用给定的U来更新M,mahout中第一个是用M--1来更新U-0,其实都是一样的。看上面的图,其中的vector其实就是Vi,而matrix其实就是Ai(对应于前篇blog中相应的变量),所以matrix\vector 其实就相当于Ai\Vi = Ai‘*Vi(Ai的逆矩阵和Vi相乘)这样就可以得到M。额,或许这里的mahout代码就是求Ai的逆矩阵?恩,很有可能这样的话,应该是对到了。只是这里求Ai的逆矩阵代码太复杂了。这个有时间还是要慢慢研究下的。

今天本来就不打算纠结这个问题了,没想到又看一遍居然好像有点领悟了(之前一直以为逆矩阵和转置矩阵一样的,导致以为mahout代码和matlab代码不符,哎,还是矩阵没学好。。。)

本篇正文:评价这个算法,在mahout中其实就是使用了一个参数而已,rmse,均方根误差。运行这一步其实就是先使用前面一步获得的U和M来对每个用户应经评价的movies进行重新评价,即评价预测。然后把真是评价分数和预测评价分数的误差写入文件。最后读出误差列,把其求平均得到最后误差结果。在mahout中评价使用的job文件是:org.apache.mahout.cf.taste.hadoop.als.FactorizationEvaluator。打开这个文件,可以看到在run方法中有一个parepareJob的函数,同时这个函数的Mapper是PredictRatingsMapper。打开这个PredictRatingsMapper可以看到它有setup和map函数,setup函数主要是把路径U和M中的数据load到一个变量里面,map是主要操作,源码如下:

 

 protected void map(LongWritable key, Text value, Context ctx) throws IOException, InterruptedException {



      String[] tokens = TasteHadoopUtils.splitPrefTokens(value.toString());

      int userID = Integer.parseInt(tokens[0]);

      int itemID = Integer.parseInt(tokens[1]);

      double rating = Double.parseDouble(tokens[2]);



      if (U.containsKey(userID) && M.containsKey(itemID)) {

        double estimate = U.get(userID).dot(M.get(itemID));

        double err = rating - estimate;

        ctx.write(new DoubleWritable(err), NullWritable.get());

      }

    }

额 ,好吧首先说下这个输入数据,格式为:userid,itemid,rating。然后map遍历每条记录,首先把当前记录中的userID、ItemID和rating提取出来,然后从U和M中分别取出userid和itemid对应的行或列向量,取出来后,把这两个向量做点乘即可得到最后的预测评价分数。然后使用是真实的评价分数减去预测的评价分数即可得到误差,进行输出即可。在这个job运行完成后,随机代码就调用了computeRmse函数来对输出文件进行分析,求出最后的rmse:

 

 

protected double computeRmse(Path errors) {

    RunningAverage average = new FullRunningAverage();

    for (Pair<DoubleWritable,NullWritable> entry :

      new SequenceFileDirIterable<DoubleWritable, NullWritable>(errors, PathType.LIST, PathFilters.logsCRCFilter(),

          getConf())) {

      DoubleWritable error = entry.getFirst();

      average.addDatum(error.get() * error.get());

    }



    return Math.sqrt(average.getAverage());

  }

然后是推荐,推荐使用的源码是在:org.apache.mahout.cf.taste.hadoop.als.RecommenderJob。这里run方法中的prepareJob中使用的mapper是PredictionMapper。这个mapper中同样含有setup和map函数,其中的setup函数还是获取U和M,不过还额外获取了一个MaxRating变量。map中的处理比较多,先贴源码吧:

 

 

protected void map(IntWritable userIDWritable, VectorWritable ratingsWritable, Context ctx)

        throws IOException, InterruptedException {



      Vector ratings = ratingsWritable.get();

      final int userID = userIDWritable.get();

      final OpenIntHashSet alreadyRatedItems = new OpenIntHashSet(ratings.getNumNondefaultElements());

      final TopK<RecommendedItem> topKItems = new TopK<RecommendedItem>(recommendationsPerUser, BY_PREFERENCE_VALUE);



      Iterator<Vector.Element> ratingsIterator = ratings.iterateNonZero();

      while (ratingsIterator.hasNext()) {

        alreadyRatedItems.add(ratingsIterator.next().index());

      }



      M.forEachPair(new IntObjectProcedure<Vector>() {

        @Override

        public boolean apply(int itemID, Vector itemFeatures) {

          if (!alreadyRatedItems.contains(itemID)) {

            double predictedRating = U.get(userID).dot(itemFeatures);

            topKItems.offer(new GenericRecommendedItem(itemID, (float) predictedRating));

          }

          return true;

        }

      });



      List<RecommendedItem> recommendedItems = Lists.newArrayListWithExpectedSize(recommendationsPerUser);

      for (RecommendedItem topItem : topKItems.retrieve()) {

        recommendedItems.add(new GenericRecommendedItem(topItem.getItemID(), Math.min(topItem.getValue(), maxRating)));

      }



      if (!topKItems.isEmpty()) {

        ctx.write(userIDWritable, new RecommendedItemsWritable(recommendedItems));

      }

    }

先说下这个输入格式吧:<key,vlaue>  -->   <userid,[itemid:rating,itemid,rating,...],针对当前的输入,首先获取用户userid和这个用户所有评价过的item(放在alreadyRatedItems)   。然后遍历所有M中的item如果这个item不存在于alreadyRatedItems那么就对这个item进行评分预测,预测使用的还是在U中和M中取出分别对应userid和itemid的行、列向量进行点乘即可得到预测分数,然后把这个预测的分数加入到topKItems中,看下这个变量的定义:

 

 

final TopK<RecommendedItem> topKItems = new TopK<RecommendedItem>(recommendationsPerUser, BY_PREFERENCE_VALUE);

这里的BY_PREFERENCE_VALUE实现了comparator接口,所以加入到这个变量中的会按照一定的顺序来排列,即按照value(即预测的分数)从大到小来排列。然后就是输出了。这样这个系列就全部分析完毕了。

 

额,还有一点,关于matlab代码部分的算法其实是和mahout源码中的一致的,具体下篇分析。


 

分享,成长,快乐

转载请注明blog地址:http://blog.csdn.net/fansy1990

 


 

你可能感兴趣的:(filter)