Hadoop学习笔记 5 sqoop 初学习

1.上传sqoop

2.安装和配置
    在添加sqoop到环境变量
    将数据库连接驱动拷贝到$SQOOP_HOME/lib里
3.使用
    第一类:数据库中的数据导入到HDFS上
        sqoop import --connect jdbc:mysql://10.1.19.244:3306/openfire --username root --password 123  --table ofPresence --columns 'username , offlinePresence,offlineDate'
       
        指定输出路径、指定数据分隔符
        sqoop import --connect jdbc:mysql://10.1.19.244:3306/openfire --username root --password 123  --table ofPresence  --target-dir '/sqoop/td' --fields-terminated-by '\t'
       
        指定Map数量 -m
        sqoop import --connect jdbc:mysql://10.1.19.244:3306/openfire --username root --password 123  --table ofPresence  --target-dir '/sqoop/td1' --fields-terminated-by '\t' -m 2

        增加where条件, 注意:条件必须用引号引起来
        sqoop import --connect jdbc:mysql://10.1.19.244:3306/openfire --username root --password 123  --table ofPresence --where 'id>3' --target-dir '/sqoop/td2'

        增加query语句(使用 \ 将语句换行)
        sqoop import --connect jdbc:mysql://10.1.19.244:3306/openfire --username root --password 123 \
--query 'SELECT * FROM ofPresence where username > 2 AND $CONDITIONS' --split-by username .id --target-dir '/sqoop/td3'
       
        注意:如果使用--query这个命令的时候,需要注意的是where后面的参数,AND $CONDITIONS这个参数必须加上
        而且存在单引号与双引号的区别,如果--query后面使用的是双引号,那么需要在$CONDITIONS前加上\即\$CONDITIONS
        如果设置map数量为1个时即-m 1,不用加上--split-by ${tablename.column},否则需要加上
       
    第二类:将HDFS上的数据导出到数据库中(不要忘记指定分隔符)
        sqoop export --connect jdbc:mysql://10.1.19.244:3306/openfire--username root --password 123 --export-dir '/td3' --table hd_001 -m 1 --fields-terminated-by ','
   
4. 遇到的错误

manager.SqlManager: Error reading from database: java.sql.SQLException: Streaming result set com.mysql.jdbc.RowDataDynamic@555b6c34 is still active. No statements may be issued when any streaming result sets are open and in use on a given connection. Ensure that you have called .close() on any active streaming result sets before attempting more queries.

 

这个错误是由于mysql的驱动版本不对导致的,下载跟mysql版本一直的驱动即可

你可能感兴趣的:(Hadoop学习笔记 5 sqoop 初学习)