第34课: Stage划分和Task最佳位置算法源码彻底解密

第34课:  Stage划分和Task最佳位置算法源码彻底解密


Spark作业调度的时候,Job提交过程中Stage 划分的算法以及Task最佳位置的算法。Stage的划分是DAGScheduler工作的核心,涉及作业在集群中怎么运行,Task最佳位置数据本地性的内容。Spark 算子的构建是链式的,涉及到怎么进行计算,首先是划分Stage,Stage划分以后才是计算的本身;分布式大数据系统追求最大化的数据本地性,数据本地性是指数据进行计算的时候,数据就在内存中,甚至不用计算就直接获得结果。

Spark Application中可以因为不同的Action触发众多的Job,也就是说一个Application中可以有很多的Job,每个Job是由一个或者多个Stage构成的,后面的Stage依赖于前面的Stage,也就是说只有前面依赖的Stage计算完毕后,后面的Stage才会运行;

Stage划分就是根据宽依赖,什么时候产生宽依赖呢?例如reducByKey、groupByKey等等;

我们从RDD的collect()方法开始,collect算子是一个Action,会触发job的运行:

RDD.scala的collect方法源码,调用了runJob方法:

1.           def collect(): Array[T] = withScope {

2.             val results = sc.runJob(this, (iter:Iterator[T]) => iter.toArray)

3.             Array.concat(results: _*)

4.           }

进入SparkContext.scala的runJob方法:

1.           def runJob[T, U: ClassTag](rdd: RDD[T], func:Iterator[T] => U): Array[U] = {

2.             runJob(rdd, func, 0 untilrdd.partitions.l

你可能感兴趣的:(SparkInBeiJing)