sqoop参数含义:
Import和export参数解释
Common arguments:
--connect
--connection-manager
--hadoop-home
--username
--password
--password-file
-p :交互式连接RDBMS的密码。
Import control arguments:
--append :追加数据到HDFS已经存在的文件中。
--as-sequencefile :import序列化的文件。
--as-textfile :import文本文件 ,默认。
--columns
--delete-target-dir :删除存在的import目标目录。
--direct :直连模式,速度更快(HBase不支持)
--split-by :分割导入任务所使用的字段,需要明确指定,推荐使用主键。
--inline-lob-limit < n > :设置内联的BLOB对象的大小。
--fetch-size
-e,--query
--target-dir
--warehouse-dir
--table
--where
-z,--compress :开启压缩。
--null-string
--null-non-string
--autoreset-to-one-mapper :如果没有主键和split-by用one mapper import (split-by和此选项不共存)。
-m,--num-mappers
Incremental import arguments:
--check-column
--incremental
--last-value
Hive arguments:
--create-hive-table :自动推断表字段类型直接建表,hive-overwrite功能可以替代掉了,但Hive里此表不能存在,不然操作会报错。
--hive-database
--hive-table
--hive-delims-replacement
--hive-drop-import-delims :导入到hive时删除字段中\n, \r,\t and \01等符号;避免字段中有空格导致导入数据被截断。
--hive-home
--hive-import :将HDFS数据导入到Hive中,会自动创建Hive表,使用hive的默认分隔符。
--hive-overwrite :对Hive表进行覆盖操作(需配合--hive-import使用,如果Hive里没有表会先创建之),不然就是追加数据。
--hive-partition-key
--hive-partition-value
--map-column-hive
HBase arguments:
--column-family < family > :把内容导入到hbase当中,默认是用主键作为split列。
--hbase-create-table :创建Hbase表。
--hbase-row-key < col > :指定字段作为row key ,如果输入表包含复合主键,用逗号分隔。
--hbase-table < table-name > :指定hbase表。