[SPARK]内存管理

[TOC]

文章目的:

  • 经常遇到OOM,希望能合理的扩大内存来避免oom
  • 合理利用内存空间进行缓存,来避免重复计算
  • 理智的设置spark内存相关参数

1.spark内存的划分
2.不同内存的作用
3.用spark参数控制内存划分

内存划分

  • Exector内存 = 堆内内存(On-heap) + 堆外内存(Off-heap)
    • 堆内内存 = 可用内存 + 预留内存
      • 可用内存 = 统一内存(Unified Memory) + 其它内存
        • 统一内存 = Storage内存 + Execution内存
    • 堆外内存 = Storage内存 + Execution内存

内存作用

Driver内存:

  • 创建spark环境
  • 提交spark作业
  • 把作业解析为task
  • 协调executor的任务调度

Exector内存

  • 执行计算task,将结果返回给Driver
  • 缓存rdd

Exector内存 - 堆内内存

  • Storage内存:缓存rdd,缓存Broadcast对象
  • Execution内存:Shuffle时占用的内存
  • 其他内存:spark对象实例,用户自定义对象实例

Exector内存 - 堆外内存

  • 堆内的Storage内存和Execution内存不够用时使用堆外内存
  • 可以避免不必要内存开销,避免频繁GC扫描&回收

统一内存管理

saprk1.6以后引入统一内存管理机制,可以让Storage内存和Execution内存之间相互动态占用

  • Storage内存和Execution内存都不够:存储到硬盘
  • Execution内存被Storage内存占,可以将Storage内存占用的部分转移到硬盘,然后回收被占用内存,并且使用
  • Storage内存被Execution内存占,被占用内存无法回收,等待被释放

Storage内存 - RDD缓存

缓存的意义:task启动之后要读取数据分区时,会先判断这个分区是否被持久化过。一个rdd要是多次参与计算,通过持久化就可以减少重复读取。

常见的cache默认是MEMORY_ONLY的级别,持久化到内存

rdd的持久化由Storage负责,Storage中以block以基础单位,每个partition对应一个block

rdd的持久化策略包括三个维度

  • 位置:存在内存,硬盘,或者内存+硬盘,内存又可以选择堆内或者堆外
  • 形式:是否序列化
  • 备份:备份数量

Execution内存 - shuffle read/write

shuffle write

  • map时使用普通排序,会执行外排ExternalSorter,内存中数据占用堆内Execution内存
  • map时使用Tungsten,排序数据可以使用堆内或者堆外

shuffle read

  • reduce聚合时,由Aggregator处理数据,占用堆内Execution内存
  • 结果需要排序的,使用外排ExternalSorter,占用堆内Execution内存

spark内存相关参数

Executor内存参数

  • 堆内内存
    • 堆内内存大小spark.executor.memory
  • 堆外内存
    • 开启堆外内存:spark.memory.offHeap.enabled
    • 堆外内存大小:spark.memory.offHeap.size
    • 堆外内存Storage & Execution比例:spark.memory.storageFraction(default:0.5)
  • 统一内存占堆内内存比例:spark.memory.fraction(default:0.6)
    • Storage & Execution比例:spark.storage.storageFraction(default:0.5)

参考:Spark 内存管理

你可能感兴趣的:([SPARK]内存管理)