通过kettle循环变量方式将关系型数据库表插入hive表分区

场景
当需要将关系型数据库中的历史数据导入hive时,由于数据量较大,通常需要建立数据日期为分区的分区表存储。此时就需要设置日期变量,通过日期变量循环将数据插入hive表分区。
示例
在本作业中,涉及到的关键组件是表输入、复制记录到结果、从结果获取记录、设置变量、Hadoop file output、执行SQL脚本等。
思路是先将源表中作为hive分区的字段查询出来作为变量(字段格式可能不一致),然后复制记录到结果,将变量传入及表导入至hdfs以及加载至hive作为一个临时作业进行循环。
整个作业如下:
traverse_the_result:
通过kettle循环变量方式将关系型数据库表插入hive表分区_第1张图片

需要在trav_result_tmp作业中勾选执行每一个输入行。通过kettle循环变量方式将关系型数据库表插入hive表分区_第2张图片
query_the_result转换为获取源表日期字段然后复制进结果:
通过kettle循环变量方式将关系型数据库表插入hive表分区_第3张图片
trav_result_tmp作业为进行变量循环的db2表导出至hdfs及hdfs加载至hive分区转换步骤。
通过kettle循环变量方式将关系型数据库表插入hive表分区_第4张图片其中:traverse_the_result转换为从结果中获取记录并设置成变量。
通过kettle循环变量方式将关系型数据库表插入hive表分区_第5张图片
tr_hdfs转换为表导出至hdfs中,日期以变量代替。
通过kettle循环变量方式将关系型数据库表插入hive表分区_第6张图片
tr_load_hive转换为hdfs文件加载至hive分区表,分区分别以变量名代替。
通过kettle循环变量方式将关系型数据库表插入hive表分区_第7张图片
至此,该作业完成,点击运行即开始执行数据插入。

你可能感兴趣的:(Kettle,kettle,hive,hadoop)