大数据之Spark -- 工作流程图

Spark 工作流程图

大数据之Spark -- 工作流程图_第1张图片

spark工作流程图.png

 

文字版工作流程:

    1. 构建Spark Application的运行环境(启动SparkContext),SparkContext向资源管理器(可以是Standalone、Mesos或YARN)注册并申请运行Executor资源;
    1. 资源管理器分配Executor资源并启动Executor,Executor运行情况将随着心跳发送到资源管理器上;
  • 3)SparkContext构建成DAG图,将DAG图分解成Stage,并把Taskset发送给Task Scheduler。Executor向SparkContext申请Task,Task Scheduler将Task发放给Executor运行同时SparkContext将应用程序代码发放给Executor。
    1. Task在Executor上运行,运行完毕释放所有资源。

更多大数据学习相关资源请关注公众号:ITdaima大数据之Spark -- 工作流程图_第2张图片

你可能感兴趣的:(大数据)