Spark运行流程

1、任务调度流程

  • 1、当一个spark任务提交的时候,首先需要为spark application创建基本的运行环境,也就是在Driver创建sparkContext,同时构建DAGScheduler和TaskScheduler
  • 2、SparkContext向资源管理器申请exector运行资源
  • 3、资源管理器为exector分配资源并创建exector进程,exector的运行状况通过心跳机制向资源管理器进行汇报
  • 4、sparkContext根据RDD的依赖关系构建DAG图,构建完毕后,将DAG图提交给DAGScheduler,DAGScheduler开始划分stage,并将stage中的TaskSet发送给TaskScheduler
  • 5、TaskScheduler将TaskSet中的task发送给exector运行,同时SparkContext将运行代码发送给exector
  • 6、exector将task放入线程池进行运行,将执行结果反馈给TaskScheduler,TaskScheduler再将结果反馈给DAGScheduler,直到全部任务运行结束后,释放所有的资源

2、资源调度流程

以cluster模式为例

  • 1、客户端向ResourceManager申请启动ApplicationMaster
  • 2、ResourceManager为ApplicationMaster分配container,在合适的NodeManager启动ApplicationMaster(同时启动DAGSchrduler和TaskScheduler),此时的ApplicationMaster相当于Driver
  • 3、ApplicationMaster向ResourceManager申请资源启动exector,ResourceManager接收申请后,为exector分配container
  • 4、ApplicationMaster根据ResourceManager分配的container,在合适的NodeManager启动exector
  • 5、exector启动成功后,向Driver反向注册,所有的exector启动成功后,开始执行main函数

你可能感兴趣的:(Spark,spark)