Spark Core是Spark的核心部分,是Spark SQL,Spark Streaming,Spark MLlib等等其他模块的基础, Spark Core提供了开发分布式应用的脚手架,使得其他模块或应用的开发者不必关心复杂的分布式计算如何实现,只需使用Spark Core提供的分布式数据结构RDD及丰富的算子API,以类似开发单机应用的方式来进行开发。
图中最下面那个就是Spark Core啦,日常使用的RDD相关的API就属于Spark Core,而Dataset、DataFrame则属于Spark SQL。
RDD是Spark Core的用户级API,了解RDD是了解Spark Core的第一步,本文基于Spark 2.x,主要对RDD的特点和组成进行分析。
RDD (Resilient Distributed Dataset,弹性分布式数据集):
In-Memory:RDD会优先使用内存Immutable(Read-Only):一旦创建不可修改Lazy evaluated:惰性执行Cacheable:可缓存,可复用Parallel:可并行处理Typed:强类型,单一类型数据Partitioned:分区的Location-Stickiness:可指定分区优先使用的节点
是Spark中最核心的数据抽象,数据处理和计算基本都是基于RDD。
一个RDD通常由5个要素组成:
与传统数据结构对比,只关心访问,不关心存储。通过迭代器访问数据,只要数据能被不重复地访问即可。后面会详细分析各要素。
算子,即对RDD进行变换的操作,按照是否触发Job提交可以分为两大类:
下面对RDD的组成要素进行分析
为什么要把数据分区?把数据分成若干partition是为了将数据分散到不同节点不同线程,从而能进行分布式的多线程的并行计算。
按什么规则分区?RDD从数据源生成的时候,数据通常是随机分配到不同的partition或者保持数据源的分区,如sc.parallelize(…),sc.textFile(…)。
这对于某些RDD操作来说是没有问题的,比如filter(),map(),flatMap(),rdd.union(otherRDD),rdd.intersection(otherRDD),rdd.subtract(otherRDD)。
但是对于reduceByKey(),foldByKey(),combineByKey(),groupByKey(),sortByKey(),cogroup(), join() ,leftOuterJoin(), rightOuterJoin()这些操作,随机分配分区就非常不友好,会带来很多额外的网络传输。影响一个分布式计算系统性能的最大敌人就是网络传输,所以必须尽量最小化网络传输。
为了减少网络传输,怎么分区才合理?对于reduceByKey操作应该把相同key的数据放到同一分区;对于sortByKey操作应该把同一范围的数据放到同一分区。
可见不同的操作适合不同的数据分区规则,Spark将划分规则抽象为Partitioner(分区器) ,分区器的核心作用是决定数据应归属的分区,本质就是计算数据对应的分区ID。
在Spark Core中内置了2个Partitioner来支持常用的分区规则(Spark MLlib,Spark SQL中有其他的)。
哈希分区器是默认的分区器,也是使用最广泛的一个,作用是将数据按照key的hash值进行分区。
分区ID计算公式非常简单:key的hash值 % 分区个数
, 如果key为null,则返回0.
也就是将key的hash值(Java中每个对象都有hash code,对象相等则hash code相同),除以分区个数,取余数为分区ID,这样能够保证相同Key的数据被分到同一个分区,但是每个分区的数据量可能会相差很大,出现数据倾斜。
RangePartitioner的作用是根据key,将数据按范围大致平均的分到各个分区,只支持能排序的key。
要知道一个key属于哪个分区,需要知道每个分区的边界值。确定边界值需要对数据进行排序,因为数据量通常较大,通过样本替代总体来估计每个分区的边界值。
采样流程:
使用场景:sortByKey
对于一个没有明确指定Partitioner的情况下,reduceByKey(),foldByKey(),combineByKey(),groupByKey()等操作会默认使用HashPartitioner。sortByKey操作会采用RangePartitioner。
reduceByKey也有一个可以自定义分区器的版本:reduceByKey(partitioner: Partitioner, func: (V, V) => V)
transformation会生成新的RDD,传给RDD transformation的函数最终会以成员变量的形式存储在新生成的RDD中。
以map函数为例。
val r11 = r00.map(n => (n, n))
map函数接受的参数类型为f: T => U
,因为Scala支持函数式编程,函数可以像值一样存储在变量中,也可以作为参数传递。f参数的类型T => U
代表一种函数类型,这个函数的输入参数的类型必须为T,输出类型为U,这里T和U都是泛型,T代表RDD中数据的类型,对于RDD[String]来说,T就是String。
最终f参数,会转换成有关迭代器的一个函数,存储到RDD的f成员变量中。
最终存储的类型为:f: (TaskContext, Int, Iterator[T]) => Iterator[U]
对于map来说是这样一个函数(context, pid, iter) => iter.map(f)
也就是说我们传入到RDD.map的f函数,最终传给了Iterator.map函数。
action不会生成新的RDD,而是将函数传递给Job。
当RDD1经过transformation生成了RDD2,就称作RDD2依赖RDD1,RDD1是RDD2的父RDD,他们是父子关系。
先看一个例子
val r00 = sc.parallelize(0 to 9)
val r01 = sc.parallelize(0 to 90 by 10)
val r10 = r00 cartesian r01
val r11 = r00.map(n => (n, n))
val r12 = r00 zip r01
val r13 = r01.keyBy(_ / 20)
val r20 = Seq(r11, r12, r13).foldLeft(r10)(_ union _)
我们看下RDD之间的依赖关系图
RDD的依赖关系网又叫RDD的血统(lineage),可以看做是RDD的逻辑执行计划。
父RDD与子RDD之间的依赖关系记录在子RDD的属性中(deps: Seq[Dependency[_]]
),数据类型为Dependency(可以有多个),Dependency中保存了父RDD的引用,这样通过Dependency就能找到父RDD。
Dependency不仅描述了RDD之间的依赖关系,还进一步描述了不同RDD的partition之间的依赖关系。
依据partition之间依赖关系的不同Dependency分为两大类:
NarrowDependency是一个抽象类,一共有3中实现类,也就是说有3种NarrowDependency。
出现shuffle依赖表示父RDD与子RDD的分区方式发生了变化。
RDD的具体实现类有几十种(大概60 ),介绍下最常见的几种。
scala> r20.toDebugString
res34: String =
(28) UnionRDD[38] at union at :31 []
| UnionRDD[37] at union at :31 []
| UnionRDD[36] at union at :31 []
| CartesianRDD[32] at cartesian at :27 []
| ParallelCollectionRDD[30] at parallelize at :25 []
| ParallelCollectionRDD[31] at parallelize at :26 []
| MapPartitionsRDD[33] at map at :28 []
| ParallelCollectionRDD[30] at parallelize at :25 []
| ZippedPartitionsRDD2[34] at zip at :29 []
| ParallelCollectionRDD[30] at parallelize at :25 []
| ParallelCollectionRDD[31] at parallelize at :26 []
| MapPartitionsRDD[35] at keyBy at :30 []
| ParallelCollectionRDD[31] at parallelize at :26 []
不同的RDD代表着不同的‘计算模式’:MapPartitionsRDD,对Iterator的每个值应用相同的函数;
ShuffledRDD,对Iterator执行combineByKey的模式,可以指定 createCombiner: V => C,mergeValue: (C, V) => C, mergeCombiners: (C, C) => C
, compute函数返回ShuffleReader生成的迭代器。
MapPartitionsRDD对于父RDD的依赖类型只能是OneToOneDependency,代表将函数应用到每一个分区的计算。
相关transformation:map, flatMap, filter, mapPartitions等等
scala> sc.parallelize(0 to 10000).map(x=>(x%9,1)).dependencies
res35: Seq[org.apache.spark.Dependency[_]] = List(org.apache.spark.OneToOneDependency@7c6843f)
对于父RDD的依赖类型只能是ShuffleDependency,代表需要改变分区方式进行shuffle的计算。
会创建ShuffledRDD的transformation:RDD:coalescePairRDDFunctions: reduceByKey, combineByKeyWithClassTag , partitionBy (分区方式不同时) 等OrderedRDDFunctions: sortByKey, repartitionAndSortWithinPartitions
Checkpoint检查点,是一种截断RDD依赖链,并把RDD数据持久化到存储系统(通常是HDFS或本地)的过程。主要作用是截断RDD依赖关系,防止stack overflow(与DAG递归调用有关)。存储的数据包括RDD计算后的数据和partitioner。
Checkpoint分为两种:
注意:与streaming中的checkpointing不同,streaming中的checkpointing会同时保存元数据和RDD数据,可以用于Application容错。
scala> :paste
// Entering paste mode (ctrl-D to finish)
val a=sc.parallelize(0 to 9)
val b=a.map(_*10)
val c=b.filter(_>10)
// Exiting paste mode, now interpreting.
a: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0] at parallelize at :24
b: org.apache.spark.rdd.RDD[Int] = MapPartitionsRDD[1] at map at :25
c: org.apache.spark.rdd.RDD[Int] = MapPartitionsRDD[2] at filter at :26
scala> c.toDebugString
res0: String =
(4) MapPartitionsRDD[2] at filter at :26 []
| MapPartitionsRDD[1] at map at :25 []
| ParallelCollectionRDD[0] at parallelize at :24 []
scala> sc.setCheckpointDir("/tmp/spark-checkpoint")
scala> b.checkpoint
scala> b.count
res4: Long = 10
scala> c.toDebugString
res5: String =
(4) MapPartitionsRDD[2] at filter at :26 []
| MapPartitionsRDD[1] at map at :25 []
| ReliableCheckpointRDD[3] at count at :26 []
scala> b.toDebugString
res6: String =
(4) MapPartitionsRDD[1] at map at :25 []
| ReliableCheckpointRDD[3] at count at :26 []
//local
scala> c.localCheckpoint
scala> c.count
res9: Long = 8
scala> c.toDebugString
res10: String =
(4) MapPartitionsRDD[2] at filter at :26 [Disk Memory Deserialized 1x Replicated]
| CachedPartitions: 4; MemorySize: 104.0 B; ExternalBlockStoreSize: 0.0 B; DiskSize: 0.0 B
| LocalCheckpointRDD[4] at count at :26 [Disk Memory Deserialized 1x Replicated]
查看HDFS上存储的checkpoint文件
hdfs dfs -ls /tmp/spark-checkpoint/74acd422-2693-4f47-b786-69b4f8dc33ad/rdd-1
Found 4 items
-rw-r--r-- 2 ld-liuyuan_su hdfs 91 2019-10-09 08:40 /tmp/spark-checkpoint/74acd422-2693-4f47-b786-69b4f8dc33ad/rdd-1/part-00000
-rw-r--r-- 2 ld-liuyuan_su hdfs 101 2019-10-09 08:40 /tmp/spark-checkpoint/74acd422-2693-4f47-b786-69b4f8dc33ad/rdd-1/part-00001
-rw-r--r-- 2 ld-liuyuan_su hdfs 91 2019-10-09 08:40 /tmp/spark-checkpoint/74acd422-2693-4f47-b786-69b4f8dc33ad/rdd-1/part-00002
-rw-r--r-- 2 ld-liuyuan_su hdfs 101 2019-10-09 08:40 /tmp/spark-checkpoint/74acd422-2693-4f47-b786-69b4f8dc33ad/rdd-1/part-00003
Cache机制是Spark提供的一种将数据缓存到内存(或磁盘)的机制,主要用途是使得中间计算结果可以被重用。
常见的使用场景有如下几种,底层都是调用RDD的cache,这里只讲RDD的cache。
rdd.cache()
dataset.cache()
spark.sql("cache table test.test")
...
Spark的Cache不仅能将数据缓存到内存,也能使用磁盘,甚至同时使用内存和磁盘,这种缓存的不同存储方式,称作‘StorageLevel(存储级别)’。
可以这样使用:rdd.persist(StorageLevel.MEMORY_ONLY)
。
Spark目前支持的存储级别如下:
NONE (default)
DISK_ONL
DISK_ONLY_2
MEMORY_ONLY (cache操作使用的级别)
MEMORY_ONLY_2
MEMORY_ONLY_SER
MEMORY_ONLY_SER_2
MEMORY_AND_DISK
MEMORY_AND_DISK_2
MEMORY_AND_DISK_SER
MEMORY_AND_DISK_SER_2
OFF_HEAP
2
代表存储份数为2,也就是有个备份存储。SER
代表存储序列化后的数据。
DISK_ONLY后面没跟SER,但其实只能是存储序列化后的数据。
要cache RDD,常用到两个函数, cache()
和persist()
,cache方法本质上是persist(StorageLevel.MEMORY_ONLY)
,也就是说persist可以指定StorageLevel,而cache不行。
使用的时候要想清楚目的,就不会用错啦。
一种将数据在不同节点间共享的机制,可以将指定的只读数据广播分发到每个Executor,每个Executor有一份完整的备份。
是一种高效的数据共享机制,被广播的数据可以被不同的stage和task共享,而不需要给每个task拷贝一份。
Broadcast机制有个非常重要的作用,Spark就是通过它将task分发给各个Executor。
下面举个使用的例子
rddA
rddB
rddAB
k | low | up |
---|---|---|
1 | a | A |
2 | b | B |
3 | c | C |
scala> val rddA=sc.parallelize(List((1,"a"),(2,"b"),(3,"c")))
rddA: org.apache.spark.rdd.RDD[(Int, String)] = ParallelCollectionRDD[5] at parallelize at :24
scala> val rddB=sc.parallelize(List((1,"A"),(2,"B"),(3,"C")))
rddB: org.apache.spark.rdd.RDD[(Int, String)] = ParallelCollectionRDD[6] at parallelize at :24
scala> val rddAB=rddA.join(rddB)
rddAB: org.apache.spark.rdd.RDD[(Int, (String, String))] = MapPartitionsRDD[9] at join at :27
scala> rddAB.collect
res11: Array[(Int, (String, String))] = Array((1,(a,A)), (2,(b,B)), (3,(c,C)))
scala> rddAB.toDebugString
res12: String =
(4) MapPartitionsRDD[9] at join at :27 []
| MapPartitionsRDD[8] at join at :27 []
| CoGroupedRDD[7] at join at :27 []
-(4) ParallelCollectionRDD[5] at parallelize at :24 []
-(4) ParallelCollectionRDD[6] at parallelize at :24 []
scala> val rddBMap=sc.broadcast(rddB.collectAsMap)
rddBMap: org.apache.spark.broadcast.Broadcast[scala.collection.Map[Int,String]] = Broadcast(9)
scala> val rddABMapJoin= rddA.map{case(k,v) => (k,(v,rddBMap.value.get(k).get))}
rddABMapJoin: org.apache.spark.rdd.RDD[(Int, (String, String))] = MapPartitionsRDD[10] at map at :27
scala> rddABMapJoin.collect
res13: Array[(Int, (String, String))] = Array((1,(a,A)), (2,(b,B)), (3,(c,C)))
scala> rddABMapJoin.toDebugString
res14: String =
(4) MapPartitionsRDD[10] at map at :27 []
| ParallelCollectionRDD[5] at parallelize at :24 []
通过broadcast机制,将原本的两个stage计算减少为1个stage。这里模拟实现了map-side join。
Cache也会把数据分发到各个节点,但是一个节点上通常只有部分分区的数据,而Broadcast会保证每个节点都有完整的数据。Broadcast会消耗更多的内存,但是带来了更好的性能。
Broadcast机制有个短板,它的变量是只读的,于是Spark提供了Accumulators(累加器)来弥补。
Accumulator的值可以增减,但是不能直接修改为指定值。
scala> val acc=sc.longAccumulator
acc: org.apache.spark.util.LongAccumulator = LongAccumulator(id: 200, name: None, value: 0)
scala> rddA.map(_=>acc.add(-1)).count
res15: Long = 3
scala> acc.value
res17: Long = -3
Spark RDDs Simplified
Understanding Spark Partitioning
Checkpointing
Spark内核设计的艺术
转载请注明原文地址:https://liam-blog.ml/2019/10/23/spark-core-rdd/查看更多博主文章