Sqoop数据导入大数据平台实例

1.从关系数据库导入文件到hdfs中
mysql为例,将所有表全部导入:
sqoop import-all-tables --connect jdbc:mysql://mysql-server/test --username root --password mysql-password --target-dir test/


2.将hdfs文件导入的数据库中(表已经存在,而且表定义和文件的格式一致)

sqoop export --connect jdbc:mysql://mysql-server/test --username root --password mysql-password --table table1 --export-dir table1


3 将关系型数据的表结构复制到hive中

sqoop create-hive-table --connect jdbc:mysql://mysql-server/test --username root --password mysql-password --table t1 --hive-table t1


4 从关系数据库导入文件到hive中

sqoop import --connect jdbc:mysql://mysql-server/test --username root --password mysql-password --table t1 --hive-import


5 将hive的数据导入的关系型数据库

和2是一样的,因为hive直接使用hdfs作为存储空间,文件默认保存在/user/hive/warehouse/table-name下,你只要将导出文件制定为这个目录即可。

你可能感兴趣的:(Sqoop)