《Sqoop将Oracle数据导入至Hive中界面无错却依旧没有数据导入》

一、生产环境

Oracle:11g R2版本

Sqoop:1.4.6版本

Hive:1.1.1版本(利用MySQL作为MetaStore)

Hadoop:2.6.3版本

(其中Sqoop、Hive、Hadoop均是搭建在Centos6.6 64位上的)

远程登录软件:Xshell 5


二、需求

需要将Oracle中的多张表通过Sqoop导入至Hive中,Oracle在远程服务器上,表中记录大小不一,少则几十条,多则10几万条。


三、问题描述

通过Sqoop导入时,界面并没有显示错误,甚至还可以看见所导入表的记录数,然而导入完毕,登录Hive查看时,并没有数据存在。

①貌似正常的导入界面:

《Sqoop将Oracle数据导入至Hive中界面无错却依旧没有数据导入》_第1张图片

②然并卵的登录Hive查看:

《Sqoop将Oracle数据导入至Hive中界面无错却依旧没有数据导入》_第2张图片

四、Sqool导入语句:


参数说明

--hive-import(导入Hive必备);
--connect jdbc:oracle:thin:@192.168.55.5:1521:fndb(是从Oracle导入,连接远程Oracle,远程Oracle在192.168.55.5上,默认端口1521,服务名fndb);
-username NEWOAUAT --password newoauat(数据库用户名,密码,--username也行);
--table APPROVALHISTORY(你要从Oracle导入的表);
--hive-database weishu(你要导入至Hive中的数据库名);
--hive-table APPROVALHISTORY(你要导入至Hive中的表名);
--verbose(控制台看到加载情况)
-m 1(用一个map)

注意事项

username大写,密码小写,笔者环境下两者都小写不报错也不显示内容,两者都大写连不上,并不需要网上文档所说的--hive-create-table参数,通过--hive-table 指定一个表名(无需新建)即可。


五、排查思路

一开始我以为出现这种数据导不进去的情况是Sqoop版本的问题,所以换了1.4.4版本,然并卵。后来觉得可能是节点分配的问题,三台节点构成的hadoop集群,所以重新配置了下,将yarn和active namenode分离,以防止过多的计算集中在一台主机,导致资源不够用的情况,然并卵。由于,将数据从Oracle导入至Hive是为了用Kylin做OLAP的。而之前,Kylin那边的环境可以正常运行,所以就没有怀疑它的依赖,然而。。。终极解决办法,看日志。Hive-1.1.1的日志默认在/tmp/{username}/hive.log,我的Hive用户是root所以,我需要查看/tmp/root/hive.log来排查错误。


Hive.log信息如下:

《Sqoop将Oracle数据导入至Hive中界面无错却依旧没有数据导入》_第3张图片

笔者通过上网查找资料,第1、2个报错似乎并没有切中要害,然而,转机就在第三个。

①小象问答:使用sqoop从mysql导入数据到Hive报错《Sqoop将Oracle数据导入至Hive中界面无错却依旧没有数据导入》_第4张图片

②Hive社区对Hive-1.1.1版本的错误说明

③重新下载的Hive-1.2.1版本


六、解决问题

①重新导入过程界面


《Sqoop将Oracle数据导入至Hive中界面无错却依旧没有数据导入》_第5张图片

②登录Hive查看

《Sqoop将Oracle数据导入至Hive中界面无错却依旧没有数据导入》_第6张图片

至此,问题得到解决。


七、反思总结

在排查的时候,排查思路和顺序还存在问题,对于这种有日志的情况,理应先查看日志,再做基于经验和猜测上的判断,不然会浪费很多的时间哈。

你可能感兴趣的:(Debug学习笔记,大数据学习笔记,Apache,Hive学习笔记,Apache,Sqoop学习笔记)