spark、hive中窗口函数实现原理复盘

窗口函数在工作中经常用到,在面试中也会经常被问到,你知道它背后的实现原理吗?

这篇文章从一次业务中遇到的问题出发,深入聊了聊hsql中窗口函数的数据流转原理,在文章最后针对这个问题给出解决方案。

一、业务背景

先模拟一个业务背景,比如大家在看淘宝app时,如下图:

搜索一个关键词后,会给展示一系列商品,这些商品有不同的类型,比如第一个是广告商品,后面这几个算是正常的商品。把这些数据用下面的测试表来描述:

create table window_test_table (
id int,    --用户id
sq string,  --可以标识每个商品
cell_type int, --标识每个商品的类型,比如广告,非广告
​rank int  --这次搜索下商品的位置,比如第一个广告商品就是1,后面的依次2,3,4...
)ROW FORMAT DELIMITED FIELDS TERMINATED BY ',';

 在该表中插入以下数据:

spark、hive中窗口函数实现原理复盘_第1张图片

以上数据中,cell_type列,假设26代表是广告,现在有个需求,想获取每个用户每次搜索下非广告类型的商品位置自然排序,如果下效果:

spark、hive中窗口函数实现原理复盘_第2张图片

业务方的实现方法:

--业务方的写法
select 
    id,
    sq,
    cell_type,
    rank,
    if(cell_type!=26,row_number() over(partition by id  order by rank),null) naturl_rank  
from window_test_table order by rank;

结果如下:

spark、hive中窗口函数实现原理复盘_第3张图片

上面这种写法的结果显然不是我们想要的,虽然把26类型的rank去掉,但是非广告类的商品的位置排序没有向上补充

为什么呢?感觉写的也没错呀?~~~~

下面,我们来盘一盘window Funtion的实现原理

二、window 实现原理

在分析原理之前,先简单过一下window Funtion的使用范式:

select
 row_number() over( partition by col1 order by col2 ) 
from table

上面的语句主要分两部分

  1. window函数部分(window_func)

  2. ​窗口定义部分

2.1 window函数部分

windows函数部分就是所要在窗口上执行的函数,spark支持三中类型的窗口函数:

  1. 聚合函数 (aggregate functions)

  2. 排序函数(Ranking functions)

  3. 分析窗口函数(Analytic functions)

第一种都比较熟悉就是常用的count 、sum、avg等

第二种就是row_number、rank这样的排序函数

第三种专门为窗口而生的函数比如:cume_dist函数计算当前值在窗口中的百分位数

2.2 窗口定义部分

这部分就是over里面的内容了里面也有三部分

  1. partition by

  2. order by

  3. ROWS | RANGE BETWEEN

前两部分就是把数据分桶然后桶内排序,排好了序才能很好的定位出你需要向前或者向后取哪些数据来参与计算。这第三部分就是确定你需要哪些数据了。

spark提供了两种方式一种是ROWS BETWEEN也就是按照距离来取例如

  1. ROWS BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW就是取从最开始到当前这一条数据,row_number()这个函数就是这样取的

  2. ROWS BETWEEN 2 PRECEDING AND 2 FOLLOWING代表取前面两条和后面两条数据参与计算,比如计算前后五天内的移动平均就可以这样算.

还有一种方式是RANGE BETWEEN 这种就是以当前值为锚点进行计算。比如RANGE BETWEEN 20 PRECEDING AND 10 FOLLOWING当前值为50的话就去前后的值在30到60之间的数据。

2.3 window Function 实现原理

窗口函数的实现,主要借助 Partitioned Table Function (即PTF);

PTF的输入可以是:表、子查询或另一个PTF函数输出;

PTF输出也是一张表。

写一个相对复杂的sql,来看一下执行窗口函数时,数据的流转情况:

select 
    id,
    sq,
    cell_type,
    rank,
    row_number() over(partition by id  order by rank ) naturl_rank,
    rank() over(partition by id order by rank) as r,
    dense_rank() over(partition by  cell_type order by id) as dr  
 from window_test_table 
 group by id,sq,cell_type,rank;

 数据流转如下图:

spark、hive中窗口函数实现原理复盘_第4张图片

以上代码实现主要有三个阶段:

  • 计算除窗口函数以外所有的其他运算,如:group by,join ,having等。上面的代码的第一阶段即为:

select
    id, 
    sq, 
    cell_type, 
    rank
from window_test_table
group by
    id, 
    sq, 
    cell_type, 
    rank

将第一步的输出作为第一个 PTF 的输入,计算对应的窗口函数值。上面代码的第二阶段即为:

select id,sq,cell_type,rank,naturl_rank,r from 
window(
,--将第一阶段输出记为w
partition by id, --分区
order by rank, --窗口函数的order
[naturl_rank:row_number(),r:rank()] --窗口函数调用
)

 ​由于row_number(),rank() 两个函数对应的窗口是相同的(partition by id  order by rank),因此,这两个函数可以在一次shuffle中完成。

  • 将第二步的输出作为 第二个PTF 的输入,计算对应的窗口函数值。上面代码的第三阶段即为:

select id,sq,cell_type,rank,naturl_rank,r,dr from 
window(
,--将第二阶段输出记为w1
partition by cell_type, --分区
order by id, --窗口函数的order
[dr:dense_rank()] --窗口函数调用
)

由于dense_rank()的窗口与前两个函数不同,因此需要再partition一次,得到最终的输出结果。

以上可知,得到最终结果,需要shuffle三次,反应在 mapreduce上面,就是要经历三次map->reduce组合;反应在spark sql上,就是要Exchange三次,再加上中间排序操作,在数据量很大的情况下,效率基本没救~~

这些可能就是窗口函数运行效率慢的原因之一了。

这里给附上spark sql的执行计划,可以仔细品一下(hive sql的执行计划实在太长,但套路基本是一样的):

spark-sql> explain select id,sq,cell_type,rank,row_number() over(partition by id order by rank ) naturl_rank,rank() over(partition by id order by rank) as r,dense_rank() over(partition by cell_type order by id) as dr from window_test_table group by id,sq,cell_type,rank;
​
== Physical Plan ==
Window [dense_rank(id#164) windowspecdefinition(cell_type#166, id#164 ASC NULLS FIRST, specifiedwindowframe(RowFrame, unboundedpreceding$(), currentrow$())) AS dr#156], [cell_type#166], [id#164 ASC NULLS FIRST]
+- *(4) Sort [cell_type#166 ASC NULLS FIRST, id#164 ASC NULLS FIRST], false, 0
   +- Exchange hashpartitioning(cell_type#166, 200)
      +- Window [row_number() windowspecdefinition(id#164, rank#167 ASC NULLS FIRST, specifiedwindowframe(RowFrame, unboundedpreceding$(), currentrow$())) AS naturl_rank#154, rank(rank#167) windowspecdefinition(id#164, rank#167 ASC NULLS FIRST, specifiedwindowframe(RowFrame, unboundedpreceding$(), currentrow$())) AS r#155], [id#164], [rank#167 ASC NULLS FIRST]
         +- *(3) Sort [id#164 ASC NULLS FIRST, rank#167 ASC NULLS FIRST], false, 0
            +- Exchange hashpartitioning(id#164, 200)
               +- *(2) HashAggregate(keys=[id#164, sq#165, cell_type#166, rank#167], functions=[])
                  +- Exchange hashpartitioning(id#164, sq#165, cell_type#166, rank#167, 200)
                     +- *(1) HashAggregate(keys=[id#164, sq#165, cell_type#166, rank#167], functions=[])
                        +- Scan hive tmp.window_test_table [id#164, sq#165, cell_type#166, rank#167], HiveTableRelation `tmp`.`window_test_table`, org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe, [id#164, sq#165, cell_type#166, rank#167]
Time taken: 0.064 seconds, Fetched 1 row(s)

三、解决方案

回顾上面sql的写法:

select 
  id,sq,cell_type,rank,
  if(cell_type!=26,row_number() over(partition by id  order by rank),null)     naturl_rank  
from window_test_table

从执行计划中,可以看到sql中 if 函数的执行位置如下:

spark-sql> explain select id,sq,cell_type,rank,if(cell_type!=26,row_number() over(partition by id order by rank),null) naturl_rank from window_test_table;
​
​
== Physical Plan ==
*(2) Project [id#4, sq#5, cell_type#6, rank#7, if (NOT (cell_type#6 = 26)) _we0#8 else null AS naturl_rank#0] 
 ### partition以及row_number后,执行if ###
+- Window [row_number() windowspecdefinition(id#4, rank#7 ASC NULLS FIRST, specifiedwindowframe(RowFrame, unboundedpreceding$(), currentrow$())) AS _we0#8], [id#4], [rank#7 ASC NULLS FIRST]
  +- *(1) Sort [id#4 ASC NULLS FIRST, rank#7 ASC NULLS FIRST], false, 0
   +- Exchange hashpartitioning(id#4, 200)
     +- Scan hive tmp.window_test_table [id#4, sq#5, cell_type#6, rank#7], HiveTableRelation `tmp`.`window_test_table`, org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe, [id#4, sq#5, cell_type#6, rank#7]
Time taken: 0.728 seconds, Fetched 1 row(s)

 数据流转:

spark、hive中窗口函数实现原理复盘_第5张图片

​if函数在partition以及row_number后执行,因此得到的位置排名不正确。

改写一下:

select 
  id,sq,cell_type,rank,
  if(cell_type!=26,row_number() over(partition by if(cell_type!=26,id,rand())   order by rank),null) naturl_rank 
from window_test_table

 

​这样写法要注意的地方:要保证 rand() 函数不会与id发生碰撞。

或者下面的写法也可以:

select 
  id,sq,cell_type,rank,
  row_number() over(partition by id  order by rank) as naturl_rank 
from window_test_table
where cell_type!=26
union all
select 
  id,sq,cell_type,rank,
  null as naturl_rank 
from window_test_table
where cell_type=26

​缺点就是要读两遍 window_test_table 表

推荐阅读:

Flink_sql_client1.10源码在IDEA中集成hive并运行

有关用户留存模型的一种设计方法

spark sql多维分析优化——细节是魔鬼

记录一次spark sql的优化过程

从一个sql引发的hive谓词下推的全面复盘及源码分析(上)

从一个sql引发的hive谓词下推的全面复盘及源码分析(下)

 

你可能感兴趣的:(spark源码精读分析系列,hive,hadoop,数据仓库,spark,sql)