sqoop2从hdfs中导入到mysql

数据准备:hive数据库文件     例路径为:/user/hadoop/hive/test

在mysql创建与hive中数据库结构一样的数据库。

启动sqoop2服务  $ sqoop2-server start

登录客户端  $ sqoop2-shell

创建数据库对象:

sqoop2从hdfs中导入到mysql_第1张图片

创建hdfs的link对象:

sqoop2从hdfs中导入到mysql_第2张图片

创建一个job作业:

sqoop2从hdfs中导入到mysql_第3张图片

启动这个job作业:start job -j 1 -s

以此启动完成。

 

这里有几个小细节要注意的:

1.hive中数据库的制表符要指定为',',不然mysql识别不了他的数据。

2.mysql中数据库要与hive中的字段顺序、名称、类型要一直,不然也会执行job失败。

3.mysql中的数据库不可有主键,不然也会导致失败,如果你可以保证你设置的那个列的值唯一的话也可以有。

4.如果想要删除已有的job或者link的话指令为delete job -j job的id号,delete link -l link的id号。例:delete link -l link 1

5.要修改的话就把delete换成update就可。

 

你可能感兴趣的:(liunx,hadoop,sqoop2,hive)