我们知道传统的DBMS系统一般都具有表分区的功能,通过表分区能够在特定的区域检索数据,减少扫描成本,在一定程度上提高查询效率,当然我们还可以通过进一步在分区上建立索引进一步提升查询效率。在此就不赘述了。
在Hive数仓中也有分区分桶的概念,在逻辑上分区表与未分区表没有区别,在物理上分区表会将数据按照分区键的列值存储在表目录的子目录中,目录名=“分区键=键值”。其中需要注意的是分区键的值不一定要基于表的某一列(字段),它可以指定任意值,只要查询的时候指定相应的分区键来查询即可。我们可以对分区进行添加、删除、重命名、清空等操作。因为分区在特定的区域(子目录)下检索数据,它作用同DNMS分区一样,都是为了减少扫描成本。
1. 创建分区表的语法(这里以根据日期对日志进行管理)
create table dept_partition(
deptno int, dname string, loc string
)
partitioned by (month string)
row format delimited fields terminated by '\t';
默认建表后路径为:/user/hive/warehouse(如图)
注意:分区字段不能是表中已经存在的数据,可以将分区字段看作表的伪列。
2. 加载数据到分区表中
load data local inpath '/opt/module/datas/dept.txt' into table default.dept_partition partition(month='201709');
load data local inpath '/opt/module/datas/dept.txt' into table default.dept_partition partition(month='201708');
load data local inpath '/opt/module/datas/dept.txt' into table default.dept_partition partition(month='201707');
注意:分区表加载数据时,必须指定分区
加载以后的分区名(目录名=“分区键=键值”)及路径:
分区数据的路径:
3.查询表内容
select * from dept_partition;
4. 查询分区表中数据
单分区查询:
select * from dept_partition where month='201707'
select * from dept_partition where month='201707'
union
select * from dept_partition where month='201708';
创建单个分区:
alter table dept_partition add partition(month='201706');
alter table dept_partition add partition(month='201705') partition(month='201704');
alter table dept_partition add partition(month='201706');
alter table dept_partition drop partition (month='201705'), partition (month='201706');
7.查看分区表有多少分区
show partitions dept_partition;
desc dept_partition;
desc formatted dept_partition;
1. 创建二级分区表
create table dept_partition2(
deptno int, dname string, loc string
)
partitioned by (month string, day string)
row format delimited fields terminated by '\t';
load data local inpath '/opt/module/datas/dept.txt' into table
default.dept_partition2 partition(month='201709', day='13');
select * from dept_partition2 where month='201709' and day='13';
4.把数据直接上传到分区目录上,让分区表和数据产生关联的三种方式
方式一:上传数据后修复
1.上传数据-----先建立分区文件夹(day=12),并上传文件dept.txt
dfs -mkdir -p
/user/hive/warehouse/dept_partition2/month=201709/day=12;
dfs -put /opt/module/datas/dept.txt /user/hive/warehouse/dept_partition2/month=201709/day=12;
建分区后的路径:
文件的路径:
2. 查询数据(查询不到刚上传的数据)
select * from dept_partition2 where month='201709' and day='12';
msck repair table dept_partition2;片
再次查询:
select * from dept_partition2 where month='201709' and day='12';
查询结果:
方式二:上传数据后添加分区
1.上传数据-----先建立分区文件夹(day=12),并上传文件dept.txt
dfs -mkdir -p
/user/hive/warehouse/dept_partition2/month=201709/day=11;
hive (default)> dfs -put /opt/module/datas/dept.txt
dfs -put /opt/module/datas/dept.txt /user/hive/warehouse/dept_partition2/month=201709/day=11;
alter table dept_partition2 add partition(month='201709',
day='11');
select * from dept_partition2 where month='201709' and day='11';
查询结果:
方式三:创建文件夹后load数据到分区
1.创建目录
dfs -mkdir -p
/user/hive/warehouse/dept_partition2/month=201709/day=10;
load data local inpath '/opt/module/datas/dept.txt' into table
dept_partition2 partition(month='201709',day='10');
3.查询数据
select * from dept_partition2 where month='201709' and day='10';