Spark 内核架构深度剖析

Spark 内核架构深度剖析

如果你要要学习 Spark 内核架构,要有一定spark 编程基础,对Scala能达到熟练的水平。我们先从案例开始一步一步介绍Spark 内核架构。

1  Word Count程序案例展示

import org.apache.spark.{SparkConf,SparkContext}

object WordCount {


def main(args: Array[String]): Unit = {

//给应用程序添加程序名称

val conf = new SparkConf().setAppName("WordCount")

//初始化 SparkContext

val sc =new SparkContext(conf)

//创建一个RDD

val lines = sc.textFile("hdfs://spark01:9000/spark.txt",1)

val worlds = lines.flatMap(line => line.split(" "))

val pairs = worlds.map(world => (world,1))

val worldCounts = pairs.reduceByKey(_ + _)

  worldCounts.foreach(worldCount =>println( worldCount._1 +  " appeared " +  worldCount._2 +" times."))         

    }

 }

 这是一个很简单的 wordcount程序,用于计算每个单词出现的次数。

2   Application

我们将自己编写的spark应用程序提交到集群机器上,我们上传的那台机器的spark程序就叫做Application

3  Spark-submit

我们可以使用spark-submit 将Application 提交到spark集群

4  Driver

使用spark-submit 提交Application 提交到集群的这种方式叫Standalone,其实会通过反射的方式,创建一个DriverActor进程出来。Driver会执行我们提交的代码

5  SparkContext

//给应用程序添加程序名称


val conf = new SparkConf().setAppName("WordCount")

//初始化 SparkContext


val sc =new SparkContext(conf)

通过上面两句代码 Driver 会开始初始化SparkContext。SparkContext 在初始化的时候,做的最重要的两件事,就是构造出来DAGScheduler和 TaskScheduler


6  TaskScheduler

TaskScheduler 实际上,是会负责,通过它对应的一个后台进程,去链接Master节点,向Master 注册Application

7  Master

Master 节点接受到Application 注册的请求之后,会使用自己的资源调度算法,在spark集群的Worker 节点上,为这个Application启动多个Executor进程。

8  Executor(进程)

Executor 启动之后,会自己反向注册到TaskScheduler上去。之后Driver 结束 SparkContext的初始化,然后继续执行我们编写的transformation 和 action。

每执行到一个action,就会创建一个job,并提交到DAGScheduler。


9  Job

每一个action 都会创建一个job,

如下这行代码就是一个action,这行上面的三行代码都是transformation。

worldCounts.foreach(worldCount => println( worldCount._1 + " appeared " +  

         worldCount._2 +" times."))         

 }

[if !supportLineBreakNewLine]

[endif]

10  DAGScheduler

DAGScheduler 会将每一个job划分为多个stage ,然后每个stage会创建一个TaskSet ,然后TaskScheduler会把TaskSet里的每个task提交到Executor 上执行。


11  TaskRunner

Executor 每接收到一个task,都会用TaskRunner来封装task ,然后从线程池取出一个线程,来执行这个task。

TaskRunner将我们编写的代码,也就是要执行的算子以及函数,拷贝,反序列化,然后执行task。


12  ShuffleMapTaskand ResultTask

  Task有两种,ShuffleMapTask和 ResultTask。只有最后一个stage是ResultTask,之前的都是ShuffleMapTask。

所以,最后整个spark应用程序的执行,就是stage分批次作为taskset提交到executor执行,每个task针对RDD的一个partition,执行我们定义的算子和函数。以此类推,直到所有操作执行完为止。

你可能感兴趣的:(Spark 内核架构深度剖析)