hive中建表及put数据

1.在hive中创建一张order表,语句如下:

create external table order(
addr_id           bigint comment 'addr_id',
prod_name    string,
allot_quantity string
)
comment 'order'
partitiononed by (create_date,order_type)
row format delimited fields terminated by '\001'
lines terminated by '\n
stored as textfile
location '/user/hive/warehouse/orders.db/order/';

说明:

external 表示创建一张外部表。创建外部表的好处是:a.将数据放在location所在的目录,通过hive可以直接查询数据。b.多个表可以共用一份数据,只需将多个表的location指向同一个目录。

comment 表示对表的说明。

partitioned by 建立分区表。分区表是将列值一样的数据放在同一个文件下,如果该文件夹下面还有子分区,还可以再分小文件夹。

row format 表示列与列之间通过\001分隔。

lines terminated 表示用\n分隔行

location 表示表中文件存放的hdfs目录

2.将/data目录下的数据文件order_today.txt放入表order中的命令为:

hadoop dfs -put /data/order_today.txt  /user/hive/warehouse/orders.db/order/

3.注意事项

a.建表的时候一定要先使用use 语句指定库。如 use orders; 否则会将表建到hive默认的库default中。

b.order_today.txt中数据列与列之间要用建表时指定的\001分隔,并且列的顺序严格按照建表时列的顺序(addr_id,prod_name,allot_quantity)存放。

你可能感兴趣的:(hive,建表,put,hive)