Hive 和Hadoop之间的工作流程

1、Execute Query

Hive接口,如命令行或Web UI发送查询驱动程序(任何数据库驱动程序,如JDBC,ODBC等)来执行。


2、Get Plan

在驱动程序帮助下查询编译器,分析查询检查语法和查询计划或查询的要求。


3、Get Metadata

编译器发送元数据请求到Metastore(任何数据库)。


4 Send Metadata

Metastore发送元数据,以编译器的响应。


5 Send Plan

编译器检查要求,并重新发送计划给驱动程序。到此为止,查询解析和编译完成。


6 Execute Plan

驱动程序发送的执行计划到执行引擎。


Hive 和Hadoop之间的工作流程_第1张图片

7 Execute Job

在内部,执行作业的过程是一个MapReduce工作。执行引擎发送作业给JobTracker,在名称节点并把它分配作业到TaskTracker,这是在数据节点。在这里,查询执行MapReduce工作。


7.1 Metadata Ops

与此同时,在执行时,执行引擎可以通过Metastore执行元数据操作。


8 Fetch Result

执行引擎接收来自数据节点的结果。


9 Send Results

执行引擎发送这些结果值给驱动程序。


10 Send Results

驱动程序将结果发送给Hive接口。

你可能感兴趣的:(Hive 和Hadoop之间的工作流程)