reduceByKey、groupByKey以及combineByKey的区别

概述:这三种算子在spark中用的比较多。
reduceByKey、groupByKey以及combineByKey的区别_第1张图片
reduceByKey: 是对key的value进行merge操作,在一个(K,V)的RDD上调用,返回一个(K,V)的RDD,使用指定的reduce函数,将相同key的值聚合到一起,与groupByKey类似,reduce任务的个数可以通过第二个可选的参数来设置,最重要的是它能够在本地先进行merge操作,并且merge操作可以通过函数自定义;
groupByKey: 在一个(K,V)的RDD上调用,返回一个(K, Iterator[V])的RDD,也是对每个key进行操作,但只生成一个sequence,groupByKey本身不能自定义函数,需要先用groupByKey生成RDD,然后才能对此RDD通过map进行自定义函数操作。
CombineByKey: 是一个比较底层的算子(高阶函数),用法如下:
combineByKey(createCombiner,mergeValue,mergeCombiners,partitioner,mapSideCombine)。

如下解释下3个重要的函数参数:以下内容转至(原文):https://blog.csdn.net/jiangpeng59/article/details/52538254/
createCombiner: V => C ,这个函数把当前的值作为参数,此时我们可以对其做些附加操作(类型转换)并把它返回 (这一步类似于初始化操作)
mergeValue: (C, V) => C,该函数把元素V合并到之前的元素C(createCombiner)上 (这个操作在每个分区内进行)
mergeCombiners: (C, C) => C,该函数把2个元素C合并 (这个操作在不同分区间进行)。
例子:http://codingjunkie.net/spark-combine-by-key/

你可能感兴趣的:(sparkCore)