RDD常见算子

RDD算子的分类

RDD算子从对数据操作上讲,大致分为两类: 转换(transformations)和行动(action)

转换算子: 将一个RDD转换为另一个RDD,这种变换并不触发提交作业,完成作业中间过程处理

行动算子:将一个RDD进行求值或者输出,这类算子会触发 SparkContext 提交 Job 作业

一行wordcount: sc.textFile("hdfs://master01:9000").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).saveAsTextFile("hdfs://master01:9000/out")  //textFile读取的文件后,成了一行一行的,然后flatMap就是将每一行都按" "分割,现在的状态就是单个单个的单词,一行就是一个集合,map则将每一个word都进行作用,_表示匹配,标为1,形成key为单词,value为数字1,形成多个集合.reduceByKey就是将所有的key相同的进行聚合,value相加.,saveAsTextFile是输出到HDFS.


转换算子(15)

1.map

将函数应用于RDD中的每一元素,并返回一个新的RDD

map

2.flatMap

将函数应用于RDD中的每一项,并每一项都成了集合,,再将所有集合压成一个大集合

flarMap

3.mapPartitions

mapPartitions 函数获取到每个分区的迭代器,利用获取到的迭代器对整个分区内的元素计算

RDD常见算子_第1张图片
mapPartitions

4.glom

将每个分区里的元素都变成数组

RDD常见算子_第2张图片
glom

5.union

将两个RDD进行合并,但是得保证两个RDD里面得数据类型得一样

RDD常见算子_第3张图片
union

6. cartesian

对两个RDD内得所有数据进行笛卡尔积运算,也就是一个RDD内得任何元素与另一个RDD内的任何元素进行运算,如(1,2,3),(4,5,6),笛卡儿积之后: (14),(15),(16),(24),(25),(26),(34),(35),(36).

RDD常见算子_第4张图片
cartesian

7.guoupBy

将RDD内的元素转换为Key,Value形式,元素相同的就是相同的key,再把元素相同的key分为一组

RDD常见算子_第5张图片
groupBy

8.filter

通过提供的产生boolean条件的表达式来返回符合结果为True的新RDD

RDD常见算子_第6张图片
filter

9.distinct

将RDD内的元素进行去重

distinct

10.subtract

类似两个RDD进行差运算,RDD1去除RDD1与RDD2共同的元素,得到一个新的RDD

RDD常见算子_第7张图片
subtract

11.sample

sample 将 RDD 这个集合内的元素进行采样,获取所有元素的子集.用户可以设定是否有放回的抽样,百分比,随机种子,进而决定采样方式,内部实现是生成 SampledRDD(withReplacement, fraction, seed).  withReplacement=true,表示有放回的抽样。false,表示无放回的抽样。

RDD常见算子_第8张图片
sample

12.cache

通过cache将 RDD 元素从磁盘缓存到内存

RDD常见算子_第9张图片
cache

13.mapValues

针对(Key, Value)型数据中的 Value 进行 Map 操作,而不对 Key 进行处理.


RDD常见算子_第10张图片
mapValues

14.reduceByKey

reduceByKey就是对RDD中Key相同的元素的Value进行合并操作,然后与原RDD中的Key组成一个新的KV对。

reduceByKey

15.partitionBy

partitionBy函数对RDD进行分区操作;  如果原有RDD的分区器和现有分区器(partitioner)一致,则不重分区,如果不一致,则相当于根据分区器生成一个新的ShuffledRDD。


行动算子(10)

1.foreach

foreach 对 RDD 中的每个元素都应用 f 函数操作,不返回 RDD 和 Array,而是返回Uint,就是遍历.

2.saveAsTextFile

函数将数据输出,存储到 HDFS 的指定目录.下面为 saveAsTextFile 函数的内部实现,其内部

通过调用 saveAsHadoopFile 进行实现:

this.map(x => (NullWritable.get(), new Text(x.toString))).saveAsHadoopFile[TextOutputFormat[NullWritable, Text]](path)

将 RDD 中的每个元素映射转变为 (null, x.toString),然后再将其写入 HDFS。

3.saveAsObjectFile

saveAsObjectFile将分区中的每10个元素组成一个Array,然后将这个Array序列化,映射为(Null,BytesWritable(Y))的元素,写入HDFS为SequenceFile的格式。

下面代码为函数内部实现。

map(x=>(NullWritable.get(),new BytesWritable(Utils.serialize(x)))

RDD常见算子_第11张图片
saveAsObjectFile

4.collect

collect 将数据集中所有的元素以Array形式返回。在这个数组上运用 scala 的函数式操作。

RDD常见算子_第12张图片
collect

5.collectAsMap

collectAsMap对(K,V)型的RDD数据返回一个单机HashMap。 对于重复K的RDD元素,后面的元素覆盖前面的元素。

RDD常见算子_第13张图片
collectAsMap

6.reduceByKeyLocally

实现的是先reduce再collectAsMap的功能,先对RDD的整体进行reduce操作,然后再收集所有结果返回为一个HashMap。

7.count

count 返回整个 RDD 的元素个数.  代码实现为:defcount():Long=sc.runJob(this,Utils.getIteratorSize_).sum

RDD常见算子_第14张图片
count

8.first

返回数据集中的第一个元素, 类似于take(1).  代码实现如下:

rdd1.first()

res10: Int = 1

9.task

Take(n)返回一个包含数据集中前n个元素的数组, 当前该操作不能并行。

代码实现如下:  rdd1.take(3)    res11: Array[Int] = Array(1, 2, 3)

10.reduce

reduce将RDD中元素两两传递给输入函数,同时产生一个新的值,新产生的值与RDD中下一个元素再被传递给输入函数直到最后只有一个值为止,比如累加.

比如 1 to10,然后从1+到10,一共等于55;

你可能感兴趣的:(RDD常见算子)