Spark SQL中实现Hive MapJoin

转载地址:

http://lxw1234.com/archives/2015/06/296.htm


在Hive中,如果一个很大的表和一个小表做join,Hive可以自动或者手动使用MapJoin,将小表的数据加载到DistributeCache中,从而在使用Map Task扫描大表的同时,完成join,这对join的性能提升非常多。

在SparkSQL中,目前还不支持自动或者手动使用MapJoin。变通的方法是,将小表进行cache,然后再和大表做join。SparkSQL中cache的作用就是将小表数据广播到每一个Worker的内存中,和加载到DistributeCache中是一个道理。

具体实现如下:

 
  
  1. create table t_lxw1234 as
  2. SELECT a.cookieid,
  3. b.brand,
  4. a.orderid AS ad_activity_id,
  5. a.orderitemid AS ad_id,
  6. a.siteid AS media_id,
  7. a.inventoryid AS ad_area_id,
  8. SUM(1) AS pv
  9. FROM lxw1234.t_log a
  10. join lxw1234.t_config b
  11. ON (a.orderid = b.ad_activity_id)
  12. WHERE a.pt = '2015-06-15'
  13. GROUP BY a.cookieid,
  14. b.brand,
  15. a.orderid,
  16. a.orderitemid,
  17. a.siteid,
  18. a.inventoryid

 

上面SQL中,大表 lxw1234.t_log 有3亿多条记录,而小表 lxw1234.t_config 中只有1000多条,一般情况下,SparkSQL的执行计划如下图所示:

可以看出,先分别扫描两张表,之后在做ShuffledHashJoin,而在这一步,由于小表数据量非常小,也就是能关联上的键值很少,因此这里发生了数据倾斜,导致最后的几个task处理的数据量非常大,直到内存溢出而报错,如图:

SparkSQL中提供了CACHE TABLE的命令,可以将一个表或者查询进行广播,命令如下:

 
  
  1. CACHE TABLE t_config AS SELECT ad_activity_id,brand FROM lxw1234.t_config

这样,等于是将t_config这张table加载到DistributeCache中,接下来再用这张内存表和大表做join:

 
  
  1. create table t_lxw1234 as
  2. SELECT a.cookieid,
  3. b.brand,
  4. a.orderid AS ad_activity_id,
  5. a.orderitemid AS ad_id,
  6. a.siteid AS media_id,
  7. a.inventoryid AS ad_area_id,
  8. SUM(1) AS pv
  9. FROM lxw1234.t_log a
  10. join t_config b
  11. ON (a.orderid = b.ad_activity_id)
  12. WHERE a.pt = '2015-06-15'
  13. GROUP BY a.cookieid,
  14. b.brand,
  15. a.orderid,
  16. a.orderitemid,
  17. a.siteid,
  18. a.inventoryid

再看执行计划:

这次,在一个Stage中,便完成了大表的扫描和与小表的BroadcastHashJoin,性能上自然不用说了,很快就跑完了。

在Hive中试了下同样的语句,Hive中走MapJoin,使用的时间比SparkSQL中多近50%,但需要注意的是,Hive中MapReduce消耗的资源,

却是SparkSQL消耗资源的好几倍,这也证实,尽管是从HDFS中读数据,Spark仍然要优于MapReduce。

另外,SparkSQL从Hive表(HDFS)中读数据,全部用的NODE_LOCAL task,如果是ANY,那就要慢一些了,而且会消耗很大的网络资源。

 

转载请注明:lxw的大数据田地 » Spark SQL中实现Hive MapJoin


你可能感兴趣的:(spark)