spark sql 的catalyst优化器

需求:根据datalog解析出各个表、列名、以及根据表的join次数评选出热点表排名

实现解析:spark sql 的catalyst优化器

过程解析:sparksql的执行经历了以下几个阶段

1.parse(解析):简单的说就是将字符串分成一个个token,解析成语法树

2.analyzer(分析者):将语法树转换成逻辑执行计划,Analyzer遍历整个语法树,对树上的节点进行数据类型和函数绑定比如将scheme(列名、数据类型和基本函数信息[sum]进行绑定)

3.optimize(优化器):优化逻辑执行计划常见的三种规则 

谓词下推(Predicate Pushdown):即将过滤操作推到join进行之前、

常量累加(Constant Folding): x+(1+2)  -> x+3

和列值裁剪(Column Pruning):对于表来说,不需要扫描所有的列值,只需要扫描所需列,对其他列进行裁剪

4.physical planning(物理执行计划):挑选一个耗时最小的算法实现

你可能感兴趣的:(spark)