spark算子:combineByKey详解

combineByKey是Spark中一个比较核心的高级函数, groupByKey、reduceByKey的底层都是使用combineByKey实现的,所以需要弄清楚它。

def combineByKey[C](createCombiner: (V) => C, 
                                      mergeValue: (C, V) => C, 
                                      mergeCombiners: (C, C) => C): RD

  • createCombiner: combineByKey() 会遍历分区中的所有元素,因此每个元素的键要么还没有遇到过,要么就和之前的某个元素的键相同。如果这是一个新的元素, combineByKey() 会使用一个叫作 createCombiner() 的函数来创建那个键对应的累加器的初始值
  • mergeValue: 如果这是一个在处理当前分区之前已经遇到的键, 它会使用 mergeValue() 方法将该键的累加器对应的当前值与这个新的值进行合并
  • mergeCombiners: 由于每个分区都是独立处理的, 因此对于同一个键可以有多个累加器。如果有两个或者更多的分区都有对应同一个键的累加器, 就需要使用用户提供的 mergeCombiners() 方法将各个分区的结果进行合并。

如果value是元组的话,需要定义出一个type:

type songType = (String, Double)
val mergeRDD = toWeightRDD.combineByKey(
(x: songType) => (List(x), 1),
(song: (List[songType], Int), x: songType) => (x :: song._1, song._2 + 1),
(uid1: (List[songType], Int), uid2: (List[songType], Int)) => (uid1._1 ::: uid2._1, uid1._2 + uid2._2)
)

需要注意的一点是,createCombine方法必须是这样的:

Function> createCombine = new Function>() {
@Override
public Tuple2 call(ScoreDetail scoreDetail) throws Exception {
return new Tuple2<>(scoreDetail.score, 1);
}
};

 

你可能感兴趣的:(Spark)