hive学习笔记(二)--基本操作

库操作

# 标准做法
create database if not exists test;

# 直接创建
create database  test;

# 指定数据库位置
create database if not exists test location '/user/zz/hive/workspace/test' ;   

# 查询所有库
show databases;
  
# 模糊查询库(查询test开头的库)
show databases like "test*"

# 使用库(库的名字是test)
use test;

#描述库
desc database test
desc database extended test ;

#删除库
drop database test;

#展示库中的表
show tables in test;

表操作

创建内部表,默认存储在/user/hive/warehouse下,也可以通过location指定,删除表时,会删除hdfs中的数据以及元数据;
场景外部表,外部表称之为EXTERNAL_TABLE,在创建表时可以自己指定目录位置(LOCATION),删除表时,只会删除元数据不会删除hdfs中的数据。

创建表语法:

CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name
  [(col_name data_type [COMMENT col_comment], ...)]
  [COMMENT table_comment]
  [PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)]
  [CLUSTERED BY (col_name, col_name, ...) [SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS]
  [
   [ROW FORMAT row_format] [STORED AS file_format]
   | STORED BY 'storage.handler.class.name' [ WITH SERDEPROPERTIES (...) ]  
  ]
  [LOCATION hdfs_path]
  [TBLPROPERTIES (property_name=property_value, ...)]  [AS select_statement]  CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name
  LIKE existing_table_name
  [LOCATION hdfs_path]

data_type
  : primitive_type
  | array_type
  | map_type
  | struct_type

primitive_type
  : TINYINT
  | SMALLINT
  | INT
  | BIGINT
  | BOOLEAN
  | FLOAT
  | DOUBLE
  | STRING

array_type
  : ARRAY < data_type >

map_type
  : MAP < primitive_type, data_type >

struct_type
  : STRUCT < col_name : data_type [COMMENT col_comment], ...>

row_format
  : DELIMITED [FIELDS TERMINATED BY char] [COLLECTION ITEMS TERMINATED BY char]
        [MAP KEYS TERMINATED BY char] [LINES TERMINATED BY char]
  | SERDE serde_name [WITH SERDEPROPERTIES (property_name=property_value, property_name=property_value, ...)]

file_format:
  : SEQUENCEFILE
  | TEXTFILE
  | RCFILE     (Note:  only available starting with 0.6.0)
  | INPUTFORMAT input_format_classname OUTPUTFORMAT output_format_classname

1、CREATE TABLE
创建一个指定名字的表。如果相同名字的表已经存在,则抛出异常;
用户可以用 IF NOT EXISTS 选项来忽略这个异常。
2、EXTERNAL
可以让用户创建一个外部表,在建表的同时指定一个指向实际数据的路径(LOCATION)。Hive 创建内部表时,会将数据移动到数据仓库指向的路径;若创建外部表,仅记录数据所在的路径,不对数据的位置做任何改变。在删除表的时候,内部表的元数据和数据会被一起删除,而外部表只删除元数据,不删除数据.
3、LIKE
允许用户复制现有的表结构,但是不复制数据。
4、ROW FORMAT DELIMITED
是用来设置创建的表在加载数据的时候,支持的列分隔符。
Hive默认的分隔符是\001,属于不可见字符,这个字符在vi里是^A
5、STORED AS
文件数据格式。
如果文件数据是纯文本,可以使用 STORED AS TEXTFILE。
如果数据需要压缩,使用 STORED AS SEQUENCEFILE。
6、CLUSTERED BY
对于每一个表(table)或者分区, Hive可以进一步组织成桶,也就是说桶是更为细粒度的数据范围划分。Hive也是 针对某一列进行桶的组织。Hive采用对列值哈希,然后除以桶的个数求余的方式决定该条记录存放在哪个桶当中。
7、LOCATION
指定加载数据路径(指定在hdfs上的位置).针对的extetnal外部表,要指定存储路径,不指定也没事,默认路径。内部表不用指定,默认路径/user/hive/warehouse
CREATE TABLE创建一个具有给定名称的表。如果已存在具有相同名称的表或视图,则会引发错误。您可以使用IF NOT EXISTS跳过错误。
8、PARTITIONED BY
给表做分区,决定了表是否是分区表。
9.TBLPROPERTIES
指定配置属性
10.SKEWED BY
指定倾斜字段及值

三种创建表的方式

1.直接创建

create table temp.temp_create_table_test (
col1   string  comment "字段1",
col2   int     comment "字段2"
)
comment "测试"
partitioned by (part_col string comment "分区字段")
clustered by (col1) sorted by (col1 desc) into 2 buckets 
skewed by (col1) on ((2), (3))
row format delimited fields terminated by "\t"
stored as parquet 
location "/user/hive/warehouse/test.db/create_table_test"
tblproperties("parquet.compression"="snappy");

2.复制表结构创建

create table test.create_table_like_test like test.create_table_test;

3.通过子查询创建表

create  table test.create_table_as_test as
select col1, col2 from test.create_table_test where part_col = '2';

展示表的创建语句:

show  create table create_table_test;

展示表结构

desc create_table_test;

查找表数据

基本与sql语句一致

#查询全部
select * from create_table_test;

#根据分区查询
select col1, col2 from create_table_test where part_col = '2';

删除表

drop table create_table_test;
#删除表中数据保留表结构
truncate table iot_devicelocation;

hive作为数据仓库,与数据库还是有本质的区别,hive不支持单条数据的删除和修改,按照网上的说法是可以操作,需要进行一些配置,但是配置成功后,操作还是有很多问题的,而且这也违背了数据仓库的本来作用,所以不建议去增加单条数据修改的配置

分区表下一篇单独说明,这篇没对分区表做过多介绍

你可能感兴趣的:(hive学习笔记(二)--基本操作)