通过命令行或者客户端提交,经过compiler编译器,运用MetaStore中的元数据进行类型检测和语法分析,生成一个逻辑方案,通过优化处理,产生一个MapReduce任务
所有的命令和查询都会进入到driver(驱动模块),通过该模块
对输入进行解析编译,对需求的计算进行优化,然后按照指定
的步骤执行(通常是启动多个MapReduce任务(job)来执行)。
当需要启动job时,hive本身不会生成java MapReduce算法程序。
hive通过一个表示 "job执行计划"的XML文件驱动执行内置的、原生的mapper和reducer模块