DStream 生成 RDD 实例详解

引言
我们在前面的文章讲过,Spark Streaming 的 模块 1 DAG 静态定义 要解决的问题就是如何把计算逻辑描述为一个 RDD DAG 的“模板”,在后面 Job 动态生成的时候,针对每个 batch,都将根据这个“模板”生成一个 RDD DAG 的实例。

在 Spark Streaming 里,这个 RDD “模板”对应的具体的类是 DStream,RDD DAG “模板”对应的具体类是 DStreamGraph。

DStream的全限定名是:org.apache.spark.streaming.dstream.DStream
DStreamGraph 的全限定名是:org.apache.spark.streaming.DStreamGraph
本文我们就来详解 DStream 最主要的功能:为每个 batch 生成 RDD 实例。

Quick Example
DStream 生成 RDD 实例详解_第1张图片
DStream 生成 RDD 实例详解_第2张图片

DStream 通过 generatedRDD 管理已生成的 RDD
DStream 内部用一个类型是 HashMap 的变量 generatedRDD 来记录已经生成过的 RDD:
在这里插入图片描述
generatedRDD 的 key 是一个 Time;这个 Time 是与用户指定的 batchDuration 对齐了的时间 —— 如每 15s 生成一个 batch 的话,那么这里的 key 的时间就是 08h:00m:00s,08h:00m:15s 这种,所以其实也就代表是第几个 batch。generatedRDD 的 value 就是 RDD 的实例。

需要注意,每一个不同的 DStream 实例,都有一个自己的 generatedRDD。如在下图中,DStream a, b, c, d 各有自己的 generatedRDD 变量。

DStream 对这个 HashMap 的存取主要是通过 getOrCompute(time: Time) 方法,实现也很简单,就是一个 —— 查表,如果有就直接返回,如果没有就生成了放入表、再返回 —— 的逻辑:
DStream 生成 RDD 实例详解_第3张图片
最主要还是调用了一个 abstract 的 compute(time) 方法。这个方法用于生成 RDD 实例,生成后被放进 generatedRDD 里供后续的查询和使用。这个 compute(time) 方法在 DStream 类里是 abstract 的,但在每个具体的子类里都提供了实现。

(a) InputDStream 的 compute(time) 实现
DStream 生成 RDD 实例详解_第4张图片
DStream 生成 RDD 实例详解_第5张图片
所以,结合以上 compute(validTime: Time) 和 filesToRDD(files: Seq[String]) 方法,我们得出 FileInputDStream 为每个 batch 生成 RDD 的实例过程如下:
(1) 先通过一个 findNewFiles() 方法,找到 validTime 以后产生的多个新 file
(2) 对每个新 file,都将其作为参数调用 sc.newAPIHadoopFile(file),生成一个 RDD 实例
(3) 将 (2) 中的多个新 file 对应的多个 RDD 实例进行 union,返回一个 union 后的 UnionRDD
其它 InputDStream 的为每个 batch 生成 RDD 实例的过程也比较类似了。

(b) 一般 DStream 的 compute(time) 实现
前一小节的 InputDStream 没有上游依赖的 DStream,可以直接为每个 batch 产生 RDD 实例。一般 DStream 都是由 transofrmation 生成的,都有上游依赖的 DStream,所以为了为 batch 产生 RDD 实例,就需要在 compute(time) 方法里先获取上游依赖的 DStream 产生的 RDD 实例。

具体的,我们看两个具体 DStream —— MappedDStream, FilteredDStream —— 的实现:DStream 生成 RDD 实例详解_第6张图片
可以看到,首先在构造函数里传入了两个重要内容:

(1)parent,是本 MappedDStream 上游依赖的 DStream
(2)mapFunc,是本次 map() 转换的具体函数
(3)在前文 [DStream, DStreamGraph 详解](1.1 DStream, DStreamGraph 详解.md) 中的 quick example 里的 val pairs = words.map(word => (word, 1)) 的 mapFunc 就是 word => (word, 1)
所以在 compute(time) 的具体实现里,就很简单了:

(1) 获取 parent DStream 在本 batch 里对应的 RDD 实例
(2) 在这个 parent RDD 实例上,以 mapFunc 为参数调用 .map(mapFunc) 方法,将得到的新 RDD 实例返回
完全相当于用 RDD API 写了这样的代码:return parentRDD.map(mapFunc)

DStream 生成 RDD 实例详解_第7张图片
同 MappedDStream 一样,FilteredDStream 也在构造函数里传入了两个重要内容:

parent,是本 FilteredDStream 上游依赖的 DStream
filterFunc,是本次 filter() 转换的具体函数
所以在 compute(time) 的具体实现里,就很简单了:

(1) 获取 parent DStream 在本 batch 里对应的 RDD 实例
(2) 在这个 parent RDD 实例上,以 filterFunc 为参数调用 .filter(filterFunc) 方法,将得到的新 RDD 实例返回
完全相当于用 RDD API 写了这样的代码:return parentRDD.filter(filterFunc)

总结一般 DStream 的 compute(time) 实现
总结上面 MappedDStream 和 FilteredDStream 的实现,可以看到:

DStream 的 .map() 操作生成了 MappedDStream,而 MappedDStream 在每个 batch 里生成 RDD 实例时,将对 parentRDD 调用 RDD 的 .map() 操作 —— DStream.map() 操作完美复制为每个 batch 的 RDD.map() 操作
DStream 的 .filter() 操作生成了 FilteredDStream,而 FilteredDStream 在每个 batch 里生成 RDD 实例时,将对 parentRDD 调用 RDD 的 .filter() 操作 —— DStream.filter() 操作完美复制为每个 batch 的 RDD.filter() 操作
在最开始, DStream 的 transformation 的 API 设计与 RDD 的 transformation 设计保持了一致,就使得,每一个 dStreamA.transformation() 得到的新 dStreamB 能将 dStreamA.transformation() 操作完美复制为每个 batch 的 rddA.transformation() 操作。

这也就是 DStream 能够作为 RDD 模板,在每个 batch 里实例化 RDD 的根本原因。

© ForEachDStream 的 compute(time) 实现
上面分析了 DStream 的 transformation 如何在 compute(time) 里复制为 RDD 的 transformation,下面我们分析 DStream 的 output 如何在 compute(time) 里复制为 RDD 的 action。

我们前面讲过,对一个 DStream 进行 output 操作,将生成一个新的 ForEachDStream,这个 ForEachDStream 用一个 foreachFunc 成员来记录 output 的具体内容。

ForEachDStream 全部实现如下:DStream 生成 RDD 实例详解_第8张图片
同前面一样,ForEachDStream 也在构造函数里传入了两个重要内容:

parent,是本 ForEachDStream 上游依赖的 DStream
foreachFunc,是本次 output 的具体函数
所以在 compute(time) 的具体实现里,就很简单了:

(1) 获取 parent DStream 在本 batch 里对应的 RDD 实例
(2) 以这个 parent RDD 和本次 batch 的 time 为参数,调用 foreachFunc(parentRDD, time) 方法

例如,我们看看 DStream.print() 里 foreachFunc(rdd, time) 的具体实现:
DStream 生成 RDD 实例详解_第9张图片
就可以知道,如果对着 rdd 调用上面这个 foreachFunc 的话,就会在每个 batch 里,都会在 rdd 上执行 .take() 获取一些元素到 driver 端,然后再 .foreach(println);也就形成了在 driver 端打印这个 DStream 的一些内容的效果了!

DStreamGraph 生成 RDD DAG 实例
在前文 [Spark Streaming 实现思路与模块概述](0.1 Spark Streaming 实现思路与模块概述.md) 中,我们曾经讲过,在每个 batch 时,都由 JobGenerator 来要求 RDD DAG “模板” 来创建 RDD DAG 实例,即下图中的第 (2) 步。

具体的,是 JobGenerator 来调用 DStreamGraph 的 generateJobs(time) 方法。

那么翻出来 generateJobs() 的实现:DStream 生成 RDD 实例详解_第10张图片
也就是说,是 DStreamGraph 继续调用了每个 outputStream 的 generateJob(time) 方法 —— 而我们知道,只有 ForEachDStream 是 outputStream,所以将调用 ForEachDStream 的 generateJob(time) 方法。

举个例子,如上图,由于我们在代码里的两次 print() 操作产生了两个 ForEachDStream 节点 x 和 y,那么 DStreamGraph.generateJobs(time) 就将先后调用 x.generateJob(time) 和 y.generateJob(time) 方法,并将各获得一个 Job。

但是…… x.generateJob(time) 和 y.generateJob(time) 的返回值 Job 到底是啥?那我们先插播一下 Job。

Spark Streaming 的 Job
Spark Streaming 里重新定义了一个 Job 类,功能与 Java 的 Runnable 差不多:一个 Job 能够自定义一个 func() 函数,而 Job 的 .run() 方法实现就是执行这个 func()。DStream 生成 RDD 实例详解_第11张图片
所以其实 Job 的本质是将实际的 func() 定义和 func() 被调用分离了 —— 就像 Runnable 是将 run() 的具体定义和 run() 的被调用分离了一样。

下面我们继续来看 x.generateJob(time) 和 y.generateJob(time) 实现。

x.generateJob(time) 过程
x 是一个 ForEachDStream,其 generateJob(time) 的实现如下:
DStream 生成 RDD 实例详解_第12张图片
就是这里牵扯到了 x 的 parentDStream.getOrCompute(time),即 d.getOrCompute(time);而 d.getOrCompute(time) 会牵扯 c.getOrCompute(time),乃至 a.getOrCompute(time), b.getOrCompute(time)

用一个时序图来表达这里的调用关系会清晰很多:DStream 生成 RDD 实例详解_第13张图片
所以最后的时候,由于对 x.generateJob(time) 形成的递归调用, 将形成一个 Job,其内容 func 如下图:DStream 生成 RDD 实例详解_第14张图片

y.generateJob(time) 过程
同样的,y 节点生成 Job 的过程,与 x 节点的过程非常类似,只是在 b.getOrCompute(time) 时,会命中 get(time) 而不需要触发 compute(time) 了,这是因为该 RDD 实例已经在 x 节点的生成过程中被实例化过一次,所以在这里只需要取出来用就可以了。

同样,最后的时候,由于对 y.generateJob(time) 形成的递归调用, 将形成一个 Job,其内容 func 如下图:DStream 生成 RDD 实例详解_第15张图片

返回 Seq[Job]
所以当 DStreamGraph.generateJobs(time) 结束时,会返回多个 Job,是因为作为 output stream 的每个 ForEachDStream 都通过 generateJob(time) 方法贡献了一个 Job。

比如在上图里,DStreamGraph.generateJobs(time) 会返回一个 Job 的序列,其大小为 2,其内容分别为:
DStream 生成 RDD 实例详解_第16张图片

至此,在给定的 batch 里,DStreamGraph.generateJobs(time) 的工作已经全部完成,Seq[Job] 作为结果返回给 JobGenerator 后,JobGenerator 也会尽快提交到 JobSheduler 那里尽快调用 Job.run() 使得这 2 个 RDD DAG 尽快运行起来。

而且,每个新 batch 生成时,都会调用DStreamGraph.generateJobs(time),也进而触发我们之前讨论这个 Job 生成过程,周而复始。

到此,整个 DStream 作为 RDD 的 “模板” 为每个 batch 实例化 RDD,DStreamGraph 作为 RDD DAG 的 “模板” 为每个 batch 实例化 RDD DAG,就分析完成了。

完全参考自腾讯广告团队酷玩Spark的知识总结,本人觉得文章写的非常好,能收获许多知识,仅是为了方便阅读,将其复制到CSDN平台。

你可能感兴趣的:(Spark)