1.1 背景
在大数据的范畴,我们经历了数据产业化的历程,从各个生产系统将数据收集起来,经过实时和离线的数据处理最终汇集在一起,成为我们的主题域数据,下一步挖掘数据的价值将成为关键。
数据应用直接体现数据的价值,数据应用多种多样,它们使用数据的方式也各不相同,UData作为数据资产和数据应用之间的桥梁,它的第一目标是解决所谓的数据使用的最后一公里问题。
UData平台以数据指标为基本的管理单位,通过四个阶段对于数据使用提供支持,一体化整合数据链路的整个生命周期,接数据、管数据、找数据、用数据。
UData核心聚焦数据应用场景,从数据应用倒推打通数据接入、数据管理、数据查询等环节。各种数据应用对于数据的使用方式,大部分分为两个场景:
1.2 UData功能架构图
上图,UData功能架构自底部向上,包含了数据流转使用的整个过程,平台内的功能模块从数据使用的流程角度,完整的涵盖了数据使用最后一公里的整个生命周期。
1.3 Udata的数据管理
UData对于数据的使用,从物理和逻辑两个层面进行了划分,并且对于多个租户同样进行了资源和计算的隔离。
1.4 Udata目前能做什么?
1.4.1 指标配置化开发管理
1.4.2 指标积木式编排和接口服务
1.4.3 指标及明细交互式关联分析和协同分享
2.1 引擎架构
Udata查询引擎基于StarRocks进行了部分改造,由两部分组成FrontEnd(FE),BackEnd(BE)组成。
执行主流程:
2.2 从SQL语句到执行的过程
2.2.1 过程概览
用户通过Mysql客户端工具或者JDBC等方式,将需要执行的SQL语句进行输入,输入后的SQL语句经过语法解析,Binder,Transformer,Optimizer等过程,从基础的sql语句,经过语法树,Relation,逻辑计划,分布式物理计划等过程,最终在FE端通过Coordinator发送到BE侧进行执行,并后续收集BE返回的数据,返回给调用客户端。
2.2.2 举例介绍
表结构:
desc remote_mysql_decimal;
SQL:
select count(`decimal`) as sum,`key` from remote_mysql_decimal where id <= 1000 group by `key` order by sum desc limit 10;
2.2.3 执行过程详解
1.解析SQL语句
在这一步骤中,SQL语句会进行语法检查,不符合规范的语句返回错误,之后经过语法解析,会生成一个抽象语法树,上面实例中的SQL语句(语句中有聚合,排序,谓词条件,limit等元素)生成的语法树结构如下:
2.绑定数据表元数据信息-生成Relation
生成语法树之后,只是单纯的SQL语法信息,在SR中FE有一个重要的作用,就是保存数据表的元数据信息(库名,表名,列名,数据类型,对应的外表)等。
在这一步骤中,会将抽象语法树和FE中的元数据信息(Catalog)进行关联,丰富SQL相关的信息,将抽象语法树生成Relation这种数据结构。
3.Transformer - 基于RBO,进行Rewrite生成逻辑执行计划
从Relation到逻辑计划,只是基于一些SQL改写规则,将树中的一些节点转变会逻辑计划节点。
如:
本实例中的SQL会生成如下的逻辑计划:
4.Optimizer - 基于CBO优化
在这一步骤中,会根据上一步生成的逻辑计划,同时结合FE中保存的元数据信息,基于CBO优化执行计划,进行谓词下推,Join order 调整等。
本实例中生成的Optimizer Plan如下:
5.分布式物理计划的生成- BE执行的并行单位(PlanFragment)
BE是分布式的,查询实际执行的时候,会将计划分配给具体的BE。BE之间,BE和FE之间通过RPC通信传输数据,BE执行的最小并行单位是Fragment, 在这一步骤中会生成分布式的物理计划。
本实例SQL生成的分布式物理计划如下:
2.3 数据的输出
2.3.1 PlanFragment在BE侧的映射
物理执行计划切分成PlanFragment之后,会发送到BE侧执行,BE会根据Fragment中的树形结构,生成对应的Node,完成各自的算子逻辑,算子之间通过不停的调用下层算子的get_next()函数,将数据用chunk的形式进行组织并流动起来,chunk的数据结构是一种列式的批结构,非常有利于向量化的执行。
2.3.2 执行模型
1.火山模型/迭代模型 ( Volcano Model )
在这种模型中,每一种操作会抽象成一个Operator, 在执行侧作为一个操作数,从顶到下调用next()接口,数据从底部的scan节点向上传输,但是每次只传输计算一条数据,也叫做(Tuple-at-a-time),是一种拉取执行模式。
优点:每个Operator可以单独实现逻辑,比较单间,灵活。
缺点:每次传输计算一条数据,导致next()函数调用次数过多,cpu效率低。
2.物化模式/Materialization Model
这种模型的处理方式,仍然是调用自顶向下,数据从底向上,但是每一个操作Operator一次性处理所有的输入,处理完成之后,将结果一次性向上输出。
此模式对于数据量较大的OLAP不太适合,但是比较适合数据量较小的OLTP系统。
3.向量化模式/批处理模型 ( Vectorized / Batch Model )
这种模型和火山模型非常类似,不同之处是每个Operator的next()函数,会返回一批的tuples数据,相当于是一种批处理的模型,这是一种上面两种模型的折中方式。
SR的向量化执行器主要集中在算子向量化,表达式向量化,存储向量化;充分利用SIMD指令优化,CPU Cache友好。
3.1 Udata查询引擎发展的三个阶段
3.1.1 社区版FE + 自研JAVA版BE
Udata查询引擎的第一阶段,是参照StarRocks的C++版本BE实现了一个JAVA版本的BE,主要完成了Udata在第一个阶段的进行联邦查询的数据服务的任务,并且在第一个版本基础上,已经实现了聚合计算的下推,同时也经过了618的考验,在执行引擎层面积累了大量的经验,为我们开展引擎改造的第二阶段提供了支持;
3.1.2 原生StarRocks + Udata改进
鉴于StarRocks表的优异性能,我们将查询引擎切换回原生的SR, 同时将之前的积累的优化经验,在原生SR上进行了实现,包括聚合查询和Sort排序的下推,额外支持了外表数据源CK,Jsf,Http,进行了查询函数format等的丰富。
3.1.3 未来探索方向
在下一个阶段,Udata查询引擎将会在SR的基础之上,密切地配合社区,引入新版本的功能,同时进行数据湖的使用探索和高性能的点查实践,以及跨SR集群的联邦查询等。
3.2 计算下推 - 极限压榨底层引擎的计算能力
3.2.1 优化背景
StarRocks在联邦查询方面针对MySQL, ElasticSearch已经有了非常快的性能,StarRocks在联邦查询方面的设计思想是针对不同的查询外部数据源,设计不同的Scan节点,并且尽可能的将谓词下推到Scan节点,在Scan节点查询到数据之后,上层会共用Project节点,Agg节点,TopN等这些节点的算子,基本的查询架构类似下图。
这种设计使StarRocks有非常好的扩展性,可以很容易的扩展到新一种的数据源,也正是这种高度可扩展的设计使我们有机会在联邦查询的细节层面,做进一步的优化,比如将一些算子的计算也尽可能的推到外部表引擎,可以节省一部分网络传输的时间,同时最大程度的压榨底层引擎原生计算能力,通过我们的测试这种计算下推也达到了数倍于原来的性能。
3.2.2 优化范围
在优化之前我们针对底层引擎和算子的特征做了调研,优化的范围包括如下:
3.2.3 整体优化思路
目前整体的优化思路,主要分为两个部分,FE侧的改造和BE侧的扩充,同时对于原生StarRocks计算方式保持兼容,可以轻易的切换回原来的计算模式。
1)FE 侧改造优化- Optimizer Plan 的转换
执行计划优化流程
目前Udata查询引擎对执行计划进行优化的节点是在原来的Optimizer之后,我们从Scan节点开始对于执行计划,进行了模式匹配,命中模式之后,进行对应的计算下推和投影的合并,同时过滤底层引擎不支持的特殊算子( 如ES的sum(distinct) ),最终将转变后的物理计划发送给BE侧进行执行。
模式匹配和计划改写
物理计划的树状封装:
ElasticSearch:
Mysql:
查询树改写:
最终,AggScanOperator 会转变为AggNode,发送到BE进行执行。
2)BE 侧改造优化
针对执行计划进行了改写之后,同样在BE侧我们创建了对应的Node节点,完成计算下推后的执行逻辑,向下对接外部执行引擎,同时向上对接类似join的聚合节点,最终输出结果数据。
3)原生SR兼容
同时执行层面,我们设置了灵活的开关 ( set agg_push_down = 0 ),可以非常容易的关闭UData优化。
3.2.4 改造成效-( 30秒 vs 6秒 )
在我们的实际过程中,我们对于计算下推,尤其是多表聚合后关联的场景进行了观察测试,计算性能随着聚合表数目的增加,会有成倍数的效果提升。
3.3 JSF&HTTP&ClickHouse的支持 - 京东生态的对齐
3.3.1 简介
JSF是京东内部的一种RPC调用服务,很多数据分析的场景中,一些维表是在其他服务中用JSF或者Http的方式提供的,或者一些已经计算好的数据指标需要在我们的UData计算引擎中进行关联查询,因此我们增加了对于JSF和Http的支持,来作为京东生态的一个补充。
JSF和HTTP查询的两个关注点是如何将查询参数进行下推和如何将返回的结构化数据映射为表中的列数据,以便在联邦查询中进行数据关联和聚合。
同时,京东内部有不少使用ClickHouse的场景,我们也进行了查询支持,ClickHouse支持TCP协议,http协议,mysql wire协议,目前Udata查询引擎通过Mysql wire协议和ClickHouse进行外表关联。
3.3.2 主要改造点介绍
3.3.3 使用方式及案例展示
1)Jsf外部表使用
Jsf建表语句 ( 表结构+访问JSF必须的元信息 ):
Mapping ( Jsf 返回的json字串与数据表结构的映射 ):
查询Sql语句 ( 查询参数下推 和 列表达式运行时过滤 ):
上面的sql是用来查询Jsf外表的,同样的其他聚合函数都可以用于该Jsf表查询,上面主要有以下需要进行下说明:
2)Http外部表使用
Http建表语句:
Http的建表语句同上面Jsf表,只是Properties有所变化,变成了http访问的元信息。
查询函数:
3.4 查询代理-使Udata查询引擎在理论上具备了查询一切的可能性
UData查询引擎目前支持的联邦数据源有Es, Mysql, Ck, StarRocks, Hive, Iceberg, Hudi 等,同时对于UData目前不支持的数据源可以通过代理插件的形式进行扩展,我们提供了Udata Proxy的设计,只要遵循Udata代理提供的接口,实现对应的逻辑,来完成其他三方数据源的读取,便可以集成到UData查询引擎中,并和其他数据源一样可以完成普通查询和联邦关联查询。
3.4.1 批处理 vs 分页流式
Udata查询引擎增加了Proxy scan 节点,Scan节点和Proxy代理之间可以通过Http和RPC两种协议进行通讯;
数据从Proxy传输到Scan节点有两种方式:
3.4.2 逻辑读插件热插拔
任何异构的数据源可以通过逻辑读插件的形式来支持,Proxy runtime 提供插件的执行环境,并进行并行线程的管理,逻辑读插件可以通过Proxy管理端进行上传和管理,热插拔及时生效;
自猿其说Tech-JDL京东物流技术数据智能部
作者:刘敬斌 贺思远