spark join broadcast优化

目录(?)[-]

  1. 举例
  2. 样本数据2000w性能测试对比
  3. 实现代码spark15

在大量数据中对一些字段进行关联。

举例

ipTable:需要进行关联的几千条ip数据(70k) 
hist:历史数据(百亿级别)

直接join将会对所有数据进行shuffle,需要大量的io操作,相同的key会在同一个partition中进行处理,任务的并发度也收到了限制。

spark join broadcast优化_第1张图片

使用broadcast将会把小表分发到每台执行节点上,因此,关联操作都在本地完成,基本就取消了shuffle的过程,运行效率大幅度提高。

spark join broadcast优化_第2张图片

样本数据(2000w)性能测试对比

小表没有进行broadcast

spark join broadcast优化_第3张图片

进行了broadcast,可以看到连shuffle过程都省略了

这里写图片描述

实现代码(spark1.5)

//读取ip表
val df = ...

//如果数据小于设定的广播大小则将该表广播,默认10M
df.cache.count

//注册表
df.registerTempTable("ipTable")

//关联
sqlContext.sql("select * from (select * from ipTable)a join (select * from hist)b on a.ip = b.ip")

......
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14

设置表广播的阈值,如果有需求且内存足够,可以将该值提高,默认10M

spark.sql.autoBroadcastJoinThreshold

你可能感兴趣的:(spark)