Scala reduceByKey()函数详解

该函数的作用是对两个RDD结构数据进行压缩合并,将有相同key的数据合并在一起,只保留一个key对应一条数据,从而起到压缩数据的效果,对同一key下的value进行合并的方式可以指定一个计算逻辑C。

函数可以表示为: 原RDD数据.((x,y)=>表达式c),表达式c可以为x+y,x|y,x等。

接下来据两个例子:

语句:
     val c = sc.parallelize(1 to 10)
     c.reduce((x, y) => x + y)
输出:55
解析:元组c展开为(1,2,3,4,5,6,7,8,9),转换成(key:value)结构的话,可以看作((null,1),(null,2),(null,3),(null,4)...)。
     将有相同key值的数据进行+操作,结果为1+2+3+4+5+6+7+8+9=55。 //实际加时是先 1+2=3   3+2=5  5+3=8... 不断两两相加的过程
语句:
     val a = sc.parallelize(List((1,2),(1,3),(3,4),(3,6)))
     a.reduceByKey((x,y) => x + y)
输出:Array((1,5), (3,10))
解析:很明显的,List中存在两个key分别是1和3,对key为1下的value相加计算 2+3=5
                                       对key为3下的value相加计算 4+6=10
     合在一起表示为((1,5), (3,10))

你可能感兴趣的:(Spark)