BigBrother的大数据之旅Day 15 sqoop

sqoop

part one

1 数据迁移工具
2 通常用于hdfs和关系型数据库之间
3 实质是mapreduce
4 数据的导入导出是从hdfs的角度来说的,谁让sqoop是apache的东西呢

part two
1 解压 sqoop软件
2 查看命令
3 导入数据

import
--connect
jdbc:mysql://192.168.239.1:3306/test
--driver
com.mysql.jdbc.Driver
--username
root
--password
123123
--as-textfile #以文本的方式进行保存
--columns 
EMPNO,ENAME,JOB,SAL,DEPTNO
--table
emp
--where # 后面可以加条件
1=1
--target-dir
hdfs://hadoop001:9000/sqoop/data1/
--null-string # 当表中某一个字段的值为NULL是,使用空格替代
' ' # ''之间是有一个空格的

4 导出数据
把hdfs的数据导出到mysql

export
--connect
jdbc:mysql://192.168.239.1/logs_result
--driver
com.mysql.jdbc.Driver
--username
root
--password
123123
--table
stats_view_depth
--export-dir
hdfs://hadoop001:9000/user/hive/warehouse/stats_view_depth/
-m
1


ps:
(1) 需要mysql的驱动包哦
(2) 如果column全部导入,那么不需要写这个字段,如果导入若干,需要写列名

你可能感兴趣的:(大数据)