Spark-RDD详解

1.RDD是什么

      RDD:Spark的核心概念是RDD (resilientdistributed dataset),指的是一个只读的,可分区的,抽象的,可并行计算的分布式数据集,这个数据集的全部或部分可以缓存在内存中,在多次计算间重用,有很强的的伸缩性

2.RDD的属性

(1)一组分片(Partition),即数据集的基本组成单位。对于RDD来说,每个分片都会被一个计算任务处理,并决定并行计算的粒度。用户可以在创建RDD时指定RDD的分片个数,如果没有指定,那么就会采用默认值。默认值就是程序所分配到的CPU Core的数目。

(2)一个计算每个分区的函数。Spark中RDD的计算是以分片为单位的,每个RDD都会实现compute函数以达到这个目的。compute函数会对迭代器进行复合,不需要保存每次计算的结果。

(3)RDD之间的依赖关系。RDD的每次转换都会生成一个新的RDD,所以RDD之间就会形成类似于流水线一样的前后依赖关系。在部分分区数据丢失时,Spark可以通过这个依赖关系重新计算丢失的分区数据,而不是对RDD的所有分区进行重新计算。

(4)一个Partitioner,即RDD的分片函数。当前Spark中实现了两种类型的分片函数,一个是基于哈希的HashPartitioner,另外一个是基于范围的RangePartitioner。只有对于于key-value的RDD,才会有Partitioner,非key-value的RDD的Parititioner的值是None。Partitioner函数不但决定了RDD本身的分片数量,也决定了parent RDD Shuffle输出时的分片数量。

(5)一个列表,存储存取每个Partition的优先位置(preferred location)。对于一个HDFS文件来说,这个列表保存的就是每个Partition所在的块的位置。按照“移动数据不如移动计算”的理念,Spark在进行任务调度的时候,会尽可能地将计算任务分配到其所要处理数据块的存储位置。



3.RDD的创建

4.RDD的两个操作

        rdd分为两个操作,分别为Transformation和Action

(1)Transformation

            主要做的是就是将一个已有的RDD生成另外一个RDD。Transformation具有lazy特性(延迟加载)。Transformation算子的代码不会真正被执行。只有当我们的程序里面遇到一个action算子的时候,代码才会真正的被执行。这种设计让Spark更加有效率地运行。

常用的有:

    map:返回一个新的RDD

    filter:   :返回一个新的RDD,该RDD计算后由返回值为true的输入元素组成

    flatMap:类似于map,但是每一个输入元素可以被映射为0或多个输出元素

    mapPartitions:类似于map,但独立地在RDD的每一个分片上运行

    mapPartitionsWithIndex:类似于mapPartitions,但func带有一个整数参数表示分片的索引值,因此在类型为T的RDD上运行时,func的函                                                         数类型必须是(Int, Interator[T]) => Iterator[U]

    distinct:对原RDD进行去重后返回一个新的RDD

    groupByKey:在一个(K,V)的RDD上调用,返回一个(K, Iterator[V])的RDD

(2)Action:

        触发代码的运行,我们一段spark代码里面至少需要有一个action操作。

常用的有:

    collect():在驱动程序中,以数组的形式返回数据集的所有元素

    count():返回RDD的元素个数

    take(n):返回一个由数据集的前n个元素组成的数组

    saveAsTextFile(path):将数据集的元素以textfile的形式保存到HDFS文件系统或者其他支持的文件系统,对于每个元素,Spark将会调用                                                       toString方法,将它装换为文件中的文本

    countByKey():针对(K,V)类型的RDD,返回一个(K,Int)的map,表示每一个key对应的元素个数。

    aggregate:先对分区进行操作,在总体操作

你可能感兴趣的:(Spark-RDD详解)