Spark学习随记(2)---RDD和DAG

概述:

针对RDD的操作,分两种,一种是Transformation(变换),一种是Actions(执行)。
Transformation(变换)操作属于懒操作(算子),不会真正触发RDD的处理计算。
Actions(执行)操作才会真正触发。

Transformations

Spark学习随记(2)---RDD和DAG_第1张图片

Actions

Spark学习随记(2)---RDD和DAG_第2张图片

案例:通过rdd实现统计文件中的单词数量

sc.textFile("/root/work/words.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).saveAsTextFile("/root/work/wcresult")

RDD的依赖关系

RDD和它依赖的parent RDD(s)的关系有两种不同的类型,即窄依赖(narrow dependency)和宽依赖(wide dependency)。

对于窄依赖操作,它们只是将Partition的数据根据转换的规则进行转化,并不涉及其它的处理,可以简单的认为只是将数据从一个形式转换到另一种形式

1)窄依赖指的是每一个parent RDD的Partition最多被子RDD的一个Partition使用,如下图所示。
Spark学习随记(2)---RDD和DAG_第3张图片

2)宽依赖指的是多个子RDD的Partition会依赖同一个parent RDD的Partition。

对于groupByKey这样的操作,子RDD的所有Partition(s)会依赖于parent RDD的所有Partition(s),子RDD的Partition是parent RDD的所有Partition Shuffle的结果。

我们可以从不同类型的转换来进一步理解RDD的窄依赖和宽依赖的区别,如下图所示。
Spark学习随记(2)---RDD和DAG_第4张图片

窄依赖底层的源码:
abstract class NarrowDependency[T](_rdd: RDD[T]) extends Dependency[T] {
    //返回子RDD的partitionId依赖的所有的parent RDD的Partition(s)
    def getParents(partitionId: Int): Seq[Int]
    override def rdd: RDD[T] = _rdd
}

class OneToOneDependency[T](rdd: RDD[T]) extends NarrowDependency[T](rdd) {
    override def getParents(partitionId: Int) = List(partitionId)
}

宽依赖的源码:
class ShuffleDependency[K, V, C](
    @transient _rdd: RDD[_ <: Product2[K, V]],
    val partitioner: Partitioner,
    val serializer: Option[Serializer] = None,
    val keyOrdering: Option[Ordering[K]] = None,
    val aggregator: Option[Aggregator[K, V, C]] = None,
    val mapSideCombine: Boolean = false)
extends Dependency[Product2[K, V]] {

override def rdd = _rdd.asInstanceOf[RDD[Product2[K, V]]]
//获取新的shuffleId
val shuffleId: Int = _rdd.context.newShuffleId()
//向ShuffleManager注册Shuffle的信息
val shuffleHandle: ShuffleHandle =
_rdd.context.env.shuffleManager.registerShuffle(
    shuffleId, _rdd.partitions.size, this)

    _rdd.sparkContext.cleaner.foreach(_.registerShuffleForCleanup(this))
}


所以对于窄依赖,并不会引入昂贵的Shuffle。所以执行效率非常高。如果整个DAG中存在多个连续的窄依赖,则可以将这些连续的窄依赖整合到一起连续执行,中间不执行shuffle 从而提高效率,这样的优化方式称之为流水线优化。
此外,针对窄依赖,如果子RDD某个分区数据丢失,只需要找到父RDD对应依赖的分区,恢复即可。但如果是宽依赖,当分区丢失时,最糟糕的情况是要重算所有父RDD的所有分区。

DAG的生成

原始的RDD(s)通过一系列转换就形成了DAG。RDD之间的依赖关系,包含了RDD由哪些Parent RDD(s)转换而来和它依赖parent RDD(s)的哪些Partitions,是DAG的重要属性。

借助这些依赖关系,DAG可以认为这些RDD之间形成了Lineage(血统,血缘关系)。借助Lineage,能保证一个RDD被计算前,它所依赖的parent RDD都已经完成了计算;同时也实现了RDD的容错性,即如果一个RDD的部分或者全部的计算结果丢失了,那么就需要重新计算这部分丢失的数据。

RDD是分布式的,弹性的,容错的数据结构

Spark的Stage(阶段)

Spark在执行任务(job)时,首先会根据依赖关系,将DAG划分为不同的阶段(Stage)。

处理流程是:
1)Spark在执行Transformation类型操作时都不会立即执行,而是懒执行(计算)

2)执行若干步的Transformation类型的操作后,一旦遇到Action类型操作时,
才会真正触发执行(计算)-====Action类型操作在(1)中说过

3)执行时,从当前Action方法向前回溯,如果遇到的是窄依赖则应用流水线优化,
继续向前找,直到碰到某一个宽依赖

4)因为宽依赖必须要进行shuffle,无法实现优化,
所以将这一次段执行过程组装为一个stage

5)再从当前宽依赖开始继续向前找。重复刚才的步骤,从而将这个DAG还分为若干的stage

Spark学习随记(2)---RDD和DAG_第5张图片

在stage内部可以执行流水线优化,而在stage之间没办法执行流水线优化,因为有shuffle。但是这种机制已经尽力的去避免了shuffle。

Spark的Job和Task

Task(在执行器上执行的最小单元。比如RDD Transformation操作时对RDD内每个分区的计算都会对应一个Task。)

原始的RDD经过一系列转换后(一个DAG),会在最后一个RDD上触发一个动作,这个动作会生成一个Job。
所以可以这样理解:一个DAG对应一个Spark的Job。

在Job被划分为一批计算任务(Task)后,这批Task会被提交到集群上的计算节点去计算

Spark的Task分为两种:
1)org.apache.spark.scheduler.ShuffleMapTask
2)org.apache.spark.scheduler.ResultTask

简单来说,DAG的最后一个阶段会为每个结果的Partition生成一个ResultTask,其余所有的阶段都会生成Shuff
fleMapTask。

你可能感兴趣的:(Spark学习)