Spark-----RDD的依赖关系(宽依赖和窄依赖)

目录

    • 查看RDD的血缘关系
    • 查看RDD的依赖关系
    • 窄依赖
    • 宽依赖

查看RDD的血缘关系

Spark-----RDD的依赖关系(宽依赖和窄依赖)_第1张图片

查看RDD的依赖关系

Spark-----RDD的依赖关系(宽依赖和窄依赖)_第2张图片

窄依赖

窄依赖相当于OneToOne
如果 B RDD 是由 A RDD 计算得到的, 则 B RDD 就是 Child RDD, A RDD 就是 parent RDD.
如果依赖关系在设计的时候就可以确定, 而不需要考虑父 RDD 分区中的记录, 并且如果父 RDD 中的每个分区最多只有一个子分区, 这样的依赖就叫窄依赖
一句话总结: 父 RDD 的每个分区最多被一个 子RDD 的分区使用
Spark-----RDD的依赖关系(宽依赖和窄依赖)_第3张图片
具体来说, 窄依赖的时候, 子 RDD 中的分区要么只依赖一个父 RDD 中的一个分区(比如map, filter操作), 要么在设计时候就能确定子 RDD 是父 RDD 的一个子集(比如: coalesce).
所以, 窄依赖的转换可以在任何的的一个分区上单独执行, 而不需要其他分区的任何信息.

宽依赖

宽依赖相当于shuffle依赖
如果 父 RDD 的分区被不止一个子 RDD 的分区依赖, 就是宽依赖.
Spark-----RDD的依赖关系(宽依赖和窄依赖)_第4张图片
宽依赖工作的时候, 不能随意在某些记录上运行, 而是需要使用特殊的方式(比如按照 key)来获取分区中的所有数据.
例如: 在排序(sort)的时候, 数据必须被分区, 同样范围的 key 必须在同一个分区内. 具有宽依赖的 transformations 包括: sort, reduceByKey, groupByKey, join, 和调用rePartition函数的任何操作.

你可能感兴趣的:(spark)