1.sqoop2-shell 进入 shell


2.show connector 显示支持的连接方式

wKioL1keuGSxFRzWAAAr7oW38-g423.png-wh_50


3.show link -all 查看已有连接的信息


ink with id 1 and name .168.1.188-1464317401319 (Enabled: true, Created by Administrator at 5/27/16 10:50 AM, Updated by Administrator at 5/27/16 10:50 AM)

Using Connector generic-jdbc-connector with id 4

  Link configuration

    JDBC Driver Class: com.mysql.jdbc.Driver

    JDBC Connection String: ****************************************

    Username: 

    Password: 

    JDBC Connection Properties: 


4. create link -c 4 表示创建基于connector4 的link


创建的时候要输入步骤3显示的信息



5create job -f -t


-f 从哪个link

-t 到哪个link


(schema name,table name )和 table sql statement 是互斥的只能写其中一个


table sql statement 要写${CONDITIONS}


check column 和last value 两个参数用作增量更新


这里选择普通文件(TEXT_FILE)和不压缩(NONE)的方式进行导入,方便查看导入文件


Sqoop2使用方法简介_第1张图片




创建成功会返回id


用show job -jid 18  查看job,id为18的详细信息



6.如果报错,想要显示具体的错误信息,可以执行下列语句。

sqoop:000> set option -name verbose -value true

Verbose option was changed to true


设置前

wKiom1keuOjg1J2cAAAVtG493IA216.png-wh_50

设置后,可以在报错信息中查看具体错误信息并排查。


wKioL1keuP2Av77tAABJozq8jg8092.png-wh_50




start job -jid 18 -s    

-s:表示实时显示job的执行进度,默认不写的话,只会显示到job开始



7status job -jid 18 

显示 id为18的job的执行状态

Sqoop2使用方法简介_第2张图片



显示执行成功


8.查看Hdfs控制台

Sqoop2使用方法简介_第3张图片


表明已经导入成功,如果还不放心 可以用

hadoop dfs -cat /tmp/xktest/文件名

来查看文件具体内容是否和表中的相同。