hadoop数据传输工具sqoop

【概述】
[sqoop]是Apache顶级项目,主要用来在Hadoop和关系数据库中传递数据。通过sqoop,我们可以方便的将数据从关系数据库导入到HDFS,或者将数据从HDFS导出到关系数据库

【架构】

hadoop数据传输工具sqoop_第1张图片
2016-12-21_165905.png

sqoop架构非常简单,其整合了Hive、Hbase和Oozie,通过map-reduce任务来传输数据,从而提供并发特性和容错。
sqoop主要通过JDBC和关系数据库进行交互。理论上支持JDBC的database都可以使用sqoop和hdfs进行数据交互。

【安装sqoop】

准备:http://archive.apache.org/dist/sqoop/1.4.4/
    1:sqoop1.4.4.tar.gz
    2 : mysql-connector-5.1.8.jar  (mysql 连接驱动)

tar -xzvf sqoop1.4.4.tar.gz
cp -r sqoop1.4.4 /usr/local

//添加驱动到sqoop的lib包
cp  mysql-connector-5.1.8.jar  /usr/local/sqoop1.4.4/lib

为了方便可以配置sqoop的home
vim /etc/pprofile
export SQOOP_HOME=/usr/local/sqoop1.4.4
export PATH=$SQOOP_HOME/bin:$PATH

键入sqoop help进行安装测试,我们发现会有警告,这是因为我们的没有配置HBASE_HOME和HCAT_HOME,这些修改sqoop的启动脚本,让其在启动时不进行对应类加载检查即可,


hadoop数据传输工具sqoop_第2张图片
2017-12-19_105951.png

bin/configure-sqoop文件中把以下内容注释掉就可以了

## Moved to be a runtime check in sqoop.
#if [ ! -d "${HBASE_HOME}" ]; then
#  echo "Warning: $HBASE_HOME does not exist! HBase imports will fail."
#  echo 'Please set $HBASE_HOME to the root of your HBase installation.'
#fi

## Moved to be a runtime check in sqoop.
#if [ ! -d "${HCAT_HOME}" ]; then
# echo "Warning: $HCAT_HOME does not exist! HCatalog jobs will fail."
#  echo 'Please set $HCAT_HOME to the root of your HCatalog installation.'
#fi
hadoop数据传输工具sqoop_第3张图片
2017-12-19_110349.png

【注意】
这里我sqoop的安装在hadoop03这台主机上,观察可以发现上边sqoop的配置除了sqoop_home的配置并没有其他相关的配置,那么他是如何知道HDFS的数据存储位置。其实是这样的,sqoop是基于hadoop的,只要本机上配置的HAOOP_HOME的信息,sqoop就会找到hadoop_home的位置,进而找到etc下的配置文件,从而就可以找到nodeManger和resourceManager。如果本机没有配置HAOOP_HOME,你可以在sqoop的conf目录下配置sqoop-site.xml

【操作】

类一:数据库中的数据导入到HDFS上
      1>默认上传
      sqoop import --connect jdbc:mysql://192.168.1.121:3307/hisee --username root --password 123  --table hisee_user --columns 'id, account, income, expenses'

      2>指定输出路径、指定数据分隔符
      sqoop import --connect jdbc:mysql://192.168.1.121:3307/hisee --username root --password 123  --table hisee_user --target-dir '/sqoop/td' --fields-terminated-by '\t'

      3>指定Map数量 -m 
      sqoop import --connect jdbc:mysql://192.168.1.121:3307/hisee --username root --password 123  --table hisee_user --target-dir '/sqoop/td1' --fields-terminated-by '\t' -m 2

      4>增加where条件, 注意:条件必须用引号引起来
      sqoop import --connect jdbc:mysql://192.168.1.121:3307/hisee --username root --password 123  --table hisee_user --where 'id>3' --target-dir '/sqoop/td2'

      5>增加query语句
      sqoop import --connect jdbc:mysql://192.168.1.121:3307/hisee --username root --password 123 --query 'SELECT * FROM trade_detail where id > 2 AND $CONDITIONS' --split-by trade_detail.id --target-dir '/sqoop/td3' 

注意:如果使用--query这个命令的时候,需要注意的是where后面的参数,AND $CONDITIONS这个参数必须加上
     而且存在单引号与双引号的区别,如果--query后面使用的是双引号,那么需要在$CONDITIONS前加上\即\$CONDITIONS
     如果设置map数量为1个时即-m 1,不用加上--split-by ${tablename.column},否则需要加上


类二:将HDFS上的数据导出到数据库中(不要忘记指定分隔符)
    1>sqoop export --connect jdbc:mysql://192.168.1.121:3307/hisee --username root --password 123 --export-dir '/td3' --table td_bak -m 1 --fields-terminated-by ','

注意:./sqoop的运行实际上就是一个只有map的mapreduce程序,实现将数据相互传递

hadoop数据传输工具sqoop_第4张图片
2016-12-21_173140.png
hadoop数据传输工具sqoop_第5张图片
2016-12-21_173215.png

【配置mysql远程连接】

GRANT ALL PRIVILEGES ON itcast.* TO 'root'@'192.168.1.201' IDENTIFIED BY '123' WITH GRANT OPTION;
    FLUSH PRIVILEGES; 
    
GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY '123' WITH GRANT OPTION;
    FLUSH PRIVILEGES

你可能感兴趣的:(hadoop数据传输工具sqoop)