Spark revolves around the concept of a resilient distributed dataset (RDD), which is an immutable , fault-tolerant , partitioned collection of elements that can be operated on in parallel.
第二篇笔记介绍RDD,整个Spark项目的精髓所在,也是理解Spark源码的金钥匙。RDD是一个很棒的分布式计算抽象模型,它提供了通用的数据处理方法和高效的分布式容错机制,Spark是它的一种实现。
开始正题之前,先简单介绍一些Spark的基本概念,以便深入介绍RDD。Spark的api运算函数分为两大类, Transformation 和 Action :Transformations是 lazy evaluation 的,调用他们只会被记录而不会被真正执行,只有遇到Actions,之前的Transformations才会被依次执行,这样的 Delay Scheduling ,Spark可以看到完整的计算流程图(以DAG有向无环图的形式表示),从而做更多的优化,Actions会返回结果给Driver或者保存结果到external storages。Spark的基本工作流程是,用户提交程序给cluster,用户的main函数会在 Driver 上面运行,根据用户的程序Spark会产生很多的 Jobs,原则是遇到一个 Action 就产生一个 Job ,以DAG图的方式记录RDD之间的依赖关系,每一个Job又会根据这些依赖关系被DAGScheduler分成不同的 Stages ,每一个Stage是一个 TaskSet ,以TaskSet为单位,TaskScheduler通过Cluster Manager一批一批地调度到不同node上运行,同一个TaskSet里面的Task都做同样的运算,一个Partition对应一个Task。这个工作流程其实就是Spark的Scheduling Process,附上超经典的示意图,不要纠结这图上的细节,后面会有专门的笔记详细介绍这张 藏宝图 :
当初设计RDD主要是为了解决三个问题:
Fast: Spark之前的Hadoop用的是MapReduce的编程模型,没有很好的利用分布式内存系统,中间结果都需要保存到external disk,运行效率很低。RDD模型是in-memory computing的,中间结果不需要被物化(materialized),它的 persistence机制,可以保存中间结果重复使用,对需要迭代运算的机器学习应用和交互式数据挖掘应用,加速显著。Spark快还有一个原因是开头提到过的 Delay Scheduling机制,它得益于RDD的Dependency设计。
General: MapReduce编程模型只能提供有限的运算种类(Map和Reduce),RDD希望支持更广泛更多样的operators(map,flatMap,filter等等),然后用户可以任意地组合他们。
The ability of RDDs to accommodate computing needs that were previously met only by introducing new frameworks is, we believe, the most credible evidence of the power of the RDD abstraction.
Fault tolerance: 其他的in-memory storage on clusters,基本单元是可变的,用细粒度更新( fine-grained updates )方式改变状态,如改变table/cell里面的值,这种模型的容错只能通过复制多个数据copy,需要传输大量的数据,容错效率低下。而RDD是 不可变的(immutable) ,通过粗粒度变换( coarse-grained transformations ),比如map,filter和join,可以把相同的运算同时作用在许多数据单元上,这样的变换只会产生新的RDD而不改变旧的RDD。这种模型可以让Spark用 Lineage 很高效地容错(后面会有介绍)。
在开头的引用中,Spark官网给RDD的定义是:RDD is an immutable , fault-tolerant , partitioned collection of elements that can be operated on in parallel 。可见RDD有以下几个特点:
另外还有两点
RDD可以通过两种方式产生,读取外部数据集(比如HadoopRDD)和通过Transformations从其他RDDs转变而来(比如FilteredRDD)。
Spark会记录用于产生某个RDD的所有transformations,称为 Lineage ,更加直白地理解就是一个RDD知道它是如果从它的父辈RDD们转换而来的,下图是一个RDD Lineage Graph,它是一种DAG Graph:
Lineage是Spark高效容错的法宝,因为有了Lineage信息,RDD可以重新单独计算某个丢失的partition,而不用计算整个RDD。
Lineage基于RDD的Dependencies,所以Lineage Graph也可以说成Dependency Graph。RDD的Dependencies可以分为两类:窄依赖( Narrow Dependencies )和宽依赖( Wide Dependencies )。下图就是Dependency Graphs, 每个大方框是一个RDD,蓝色的小矩阵是对应的Partitions:
如果输入RDD的每个Partition只指向(用于计算)输出RDD的一个Partition时,是窄依赖,否则的话就是宽依赖
Spark的DAGScheduler就是基于Dependencies来划分stages的(之后会有笔记介绍),因为窄依赖里面的运算符可以被pipeline在一起(不需要shuffle),用一个Task直接计算。
有了前面的理论准备,现在可以开始阅读Spark的RDD模型源码实现了。开始之前,请确保你已经参考我的第一篇笔记 搭建Spark源码研读和代码调试的开发环境,用Intellij IDEA打开了Spark项目,并且编译通过,然后
command + o, 输入RDD,打开org.apache.spark.rdd.RDD (RDD.scala文件)
Spark的RDD编程接口是一个抽象类,实例化需要输入SparkContext和RDD的Dependencies,解释两点:
RDD[T: ClassTag]
: T代表了RDD每个元素的type,比如RDD[Int]代表每个元素是Int型。Seq[Dependency[_]]
:代表RDD的父辈RDD们的类型是可以任意的,而不是一定要和这个RDD一样,比如 RDD[Int]
通过 map(f: Int => String)
运算可以变成RDD[String]
。abstract class RDD[T: ClassTag](
@transient private var _sc: SparkContext,
@transient private var deps: Seq[Dependency[_]]
) extends Serializable with Logging {
...
}
为了实现前一节介绍的那些RDD特性,Spark实现的RDD模型包含五个主要的属性:
每一个RDD子类都必须实现这些属性(在源码里面是函数):
比如
HadoopRDD
FilteredRDD
JoinedRDD
RDD抽象类的源码可以分成几大部分:
现在可以先阅读Transformations函数源码,其他的会在后面的笔记里面涉及,因为Actions都会调用 sc.runJon()
来运行job,深入理解Spark Scheduling之后再阅读会比较容易理解。 这里以 flatMap 为例:
/**
* Return a new RDD by first applying a function to all elements of this
* RDD, and then flattening the results.
*/
def flatMap[U: ClassTag](f: T => TraversableOnce[U]): RDD[U] = withScope {
val cleanF = sc.clean(f)
new MapPartitionsRDD[U, T](this, (context, pid, iter) => iter.flatMap(cleanF))
}
flatMap的功能是对RDD[T]类型的RDD上的每一个元素运行函数f,返回类型为RDD[U]的RDD。 withScope{body}
是为了确保运行body代码块产生的所有RDDs都在同一个scope里面。 val cleanF = sc.clean(f)
是为了确保这个f函数(专业称为closure)是可以被序列化的,因为它需要被序列化后发送到不同的node上。想要了解他们的实现细节可以用IDE代码跳转功能:
在Intellij里面你可以选择一个函数或者变量,然后Command + b,跳转到它的实现细节,command + [ 可以返回原来的地方
这一行代码是关键所在,实例化了一个MapPartitionsRDD,返回的是RDD[U]类型:
new MapPartitionsRDD[U, T](this, (context, pid, iter) => iter.flatMap(cleanF))
选择MapPartitionsRDD,command + b, 跳转到它的实现
MapPartitionsRDD[U, T]是RDD[U]的子类,它的源码很好的诠释了如何使用RDD编程接口:
/**
* An RDD that applies the provided function to every partition of the parent RDD.
*/
private[spark] class MapPartitionsRDD[U: ClassTag, T: ClassTag](
var prev: RDD[T],
f: (TaskContext, Int, Iterator[T]) => Iterator[U], // (TaskContext, partition index, iterator)
preservesPartitioning: Boolean = false)
extends RDD[U](prev) {
override val partitioner = if (preservesPartitioning) firstParent[T].partitioner else None
override def getPartitions: Array[Partition] = firstParent[T].partitions
override def compute(split: Partition, context: TaskContext): Iterator[U] =
f(context, split.index, firstParent[T].iterator(split, context))
override def clearDependencies() {
super.clearDependencies()
prev = null
}
}
MapPartitionsRDD[U, T]的partitioner和它的第一个parent RDD的partitioner保持一致(如果需要保留partitioner的话),它的partitions就是它的firstParent的partitions。它的compute函数只是调用了flatMap实例化它时输入的函数。 再次聚焦需要传递的函数的函数类型, 实际传递的函数和调用它的代码:
f: (TaskContext, Int, Iterator[T]) => Iterator[U], // (TaskContext, partition index, iterator)
(context, pid, iter) => iter.flatMap(cleanF)
f(context, split.index, firstParent[T].iterator(split, context))
iter:Iterator[T]是一个Partition上的元素迭代器,用来遍历RDD[T]的第pid个partition上的所有元素。 firstParent[T].iterator(split, context)
就是返回parentRDD的对应partition的迭代器iter:Iterator[T]: 如果已经保存了就直接读取,否则重新计算(可以跳转看它的实现)。有了这个迭代器iter之后,然后用 iter.flatMap(cleanF)
来产生新的迭代器,返回类型是Iterator[U],这个就是最终返回的RDD: RDD[U]的partition的迭代器啦。 iter.flatMap(cleanF)
只是纯粹的scala flatMap计算,在不同的node上运行。 这部分内容,可能比较绕,只有看着源码不断的跳转,才能比较好的理解。高度总结一下,Transformations函数的实现,就是对RDD上每一个partition的iterator进行相应的操作。
在RDD.scala文件的最后有一个object RDD,这个很有意思,也体现了scala implicit的强大之处:它的作用就是在编译代码的时候,scala编译器会自动识别特定类型的RDD,然后调用对应的implicit function来扩展这种特定类型的RDD的api函数,比如scala编译器看到RDD[K, V],就会调用这个函数
implicit def rddToPairRDDFunctions[K, V](rdd: RDD[(K, V)])
(implicit kt: ClassTag[K], vt: ClassTag[V], ord: Ordering[K] = null): PairRDDFunctions[K, V] = {
new PairRDDFunctions(rdd)
}
然后这个RDD就拥有PairRDDFunctions类里面的专属函数啦:
只说不练假把式,终于到了动手环节了,打起精神啦!任务是编写一个和scala的flatten函数类似的RDD API函数:
scala> Seq(Seq(1,2), Seq(3)).flatten
res0: Seq[Int] = List(1, 2, 3)
虽然它可以用 flatMap(x => x)
来代替(这也是为什么spark RDD api函数里面没有它),但是自己动手实现一下这个简单的api函数,可以加深对RDD模型的理解,也能熟悉Spark开发流程,甚至贡献代码给社区。
看到这个任务最直观的想法,就是修改一下spark的flatMap,比如:
def flatten[U: ClassTag](): RDD[U] = withScope {
new MapPartitionsRDD[U, T](this, (context, pid, iter) => iter.flatten)
}
但是问题没有那么简单,在Intellij里面你会看到iter: Iterator[T]没有flatten这个函数,因为可以flatten的数据集的元素必定是可以遍历的类型,比如Seq[Int],所以Iterator[T]的变量没有flatten,只有类似Iterator[Seq[T]]]的变量才有。 然后第二想法,是用flatMap(x => x):
def flatten[U: ClassTag](): RDD[U] = withScope {
new MapPartitionsRDD[U, T](this, (context, pid, iter) => iter.flatMap((x => x))
}
再一次,失败了,同样因为x是T类型的,编译器认为它是不可遍历的,而flatMap必须接受可遍历类型作为返回。 到这里我们基本认清了问题的难点所在和关键突破口,是不是激起了你的挑战欲望,你可以自己试试。下一节开始讲可行的解决方案。
我们可以参考Scala flatten的实现源码和Spark flatMap的实现源码:
def flatten[B](implicit asTraversable: A => GenTraversableOnce[B]): CC[B] = {
val b = genericBuilder[B]
for (xs <- sequential)
b ++= asTraversable(xs).seq
b.result()
}
def flatMap[U: ClassTag](f: T => TraversableOnce[U]): RDD[U] = withScope {
val cleanF = sc.clean(f)
new MapPartitionsRDD[U, T](this, (context, pid, iter) => iter.flatMap(cleanF))
}
然后编写spark flatten api函数如下:
def flatten[U: ClassTag](implicit asTraversable: T => TraversableOnce[U]): RDD[U] = withScope {
val f = (x: T) => asTraversable(x)
val cleanF = sc.clean(f)
new MapPartitionsRDD[U, T](this, (context, pid, iter) => iter.flatMap(cleanF))
}
其中asTraversable是隐式函数,是为了把type T隐式地转换为可以遍历的TraversableOnce[U]类型(是Seq[Int]的父类,深入可以去了解scala的type system)。为什么要这样转换,就如第一节讲的,因为Spark代码里面,RDD[T]的元素(也是 iter
迭代器的元素)类型是T,编译器并不知道T是否是可遍历类型,也就不能进一步flatten啦。
开始测试代码了,打开你的Terminal,macOS上我用 iTerm2
git checkout -b SN-add-rdd-flatten
build/sbt clean package
// 复制flatten的实现到RDD.scala里面,比如flatMap函数下面
export SPARK_PREPEND_CLASSES=true
./build/sbt compile
SPARK_PREPEND_CLASSES
是用于迭代式开发,我们已经用 sbt package
打包好了所有的依赖,只要让Spark编译你修改的部分,而不用编译全部的依赖,加速开发。参考Useful Developer Tools
然后在spark-shell里面就能看到你的flatten函数了,结果如下,如果你也成功了,就给我点star吧,哈哈:
完整的开发流程,还需要有测试:
command + o, 跳转到RDDSuite.scala
在 test("basic operations") {}
下面添加:
test("flatten") {
val nestedNums = sc.makeRDD(Array(Array(1, 2, 3), Array(4, 5), Array(6)), 2)
assert(nestedNums.flatten.collect().toList === List(1, 2, 3, 4, 5, 6))
}
然后确认测试通过:
到了这一步,算是大功告成了,你甚至已经可以给spark社区提交pr啦,哈哈。 因为有了test,我们可以随意重构我们的代码,比如不想用flatMap:
def flatten[U: ClassTag](implicit asTraversable: T => TraversableOnce[U]): RDD[U] = withScope {
new MapPartitionsRDD[U, T](this, (context, pid, iter) => {
var newIter: Iterator[U] = Iterator.empty
for (x <- iter) newIter ++= asTraversable(x)
newIter
})
}
或者用更简洁的foldLeft:
def flatten[U: ClassTag](implicit asTraversable: T => TraversableOnce[U]): RDD[U] = withScope {
new MapPartitionsRDD[U, T](this, (context, pid, iter) => {
val emptyIter: Iterator[U] = Iterator.empty
iter.foldLeft[Iterator[U]](emptyIter)((newIter, x) => newIter ++ asTraversable(x))
})
}
完整代码可以参考我创建的 SN-add-rdd-flatten
branch: https://github.com/linbojin/spark/commit/2b389082a529da570d15d41c7687d6139fe0926f
上面的实现,个人觉得已经OK,但是有一个不是”问题”的问题,如果你把flatten作用到一个不适用的RDD上面:
scala> val rdd = sc.parallelize(Seq(1,2,3))
rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0] at parallelize at :24
scala> rdd.flatten
:27: error: No implicit view available from Int => scala.collection.TraversableOnce[U].
rdd.flatten
^
我说它不是“问题“,因为scala也是这样的:
scala> val l = List(1,2,3)
l: List[Int] = List(1, 2, 3)
scala> l.flatten
:13: error: No implicit view available from Int => scala.collection.GenTraversableOnce[B].
l.flatten
^
那么真要解决它,也就是在不适用的RDD上面,不要显示这个函数,应该怎么做?用RDD隐式转换!这种方法也有一些limitation,因为RDD是invariant的(一个很复杂的topic,这里不讲了),不能做到像上面的方法那样generic,但是它的思想是很值得学习的,也是很”spark“的解决方案:
第一步:参考PairRDDFunctions.scala和DoubleRDDFunctions.scala,在和RDD.scala相同的目录下创建TraversableRDDFunctions.scala:
package org.apache.spark.rdd
import scala.reflect.ClassTag
import org.apache.spark.internal.Logging
/**
* Extra functions available on RDDs of TraversableOnce through an implicit conversion.
*/
class TraversableRDDFunctions[U](self: RDD[Seq[U]])(implicit et: ClassTag[U]) extends Logging with Serializable {
def flattenX: RDD[U] = self.withScope {
self.mapPartitions(iter => iter.flatten) // iter.foldLeft(Iterator.empty)((a,b) => a ++ b.toIterator) )
}
}
第二步,添加隐式转换函数到object RDD里面:
implicit def rddToTraversableRDDFunctions[U](rdd: RDD[Seq[U]])
(implicit et: ClassTag[U]): TraversableRDDFunctions[U] = {
new TraversableRDDFunctions(rdd)
}
第三步,编译:
./build/sbt compile
第四步,运行spark-shell,可以看到flattenX函数只出现在RDD[Seq[Int]]上:
现在可以简单示意一下,为什么这种方法,有局限性,对RDD[List[Int]],flatten照常工作,flattenX却不能了,因为RDD is invariant:
List[Int]是Seq[?]的子类,但是RDD[List[Int]]不是RDD[Set[?]]的子类:
这部分完整代码,可以参考我的这个commit: https://github.com/linbojin/spark/commit/6c8755f16d264fb9aaa2911c27f24885f412988a