hive元数据表结构解析

1 存储Hive版本的元数据表(VERSION)

VER_ID SCHEMA_VERSION VERSION_COMMENT
ID主键 Hive版本 版本说明
1 0.13.0 Set by MetaStore

如果该表出现问题,根本进入不了Hive-Cli。

比如该表不存在,当启动Hive-Cli时候,就会报错”Table ‘hive.version’ doesn’t exist”。

2 Hive数据库相关的元数据表(DBS、DATABASE_PARAMS)

  • (1)DBS:该表存储Hive中所有数据库的基本信息,字段如下:
元数据表字段 说明 示例数据
DB_ID 数据库ID 2
DESC 数据库描述 测试库
DB_LOCATION_URI 数据库HDFS路径 hdfs://namenode/user/hive/warehouse/lxw1234.db
NAME 数据库名 lxw1234
OWNER_NAME 数据库所有者用户名 lxw1234
OWNER_TYPE 所有者角色 USER

 (2)DATABASE_PARAMS:该表存储数据库的相关参数,在CREATE DATABASE时候用WITH DBPROPERTIES (property_name=property_value, …)指定的参数。

元数据表字段 说明 示例数据
DB_ID 数据库ID 2
PARAM_KEY 参数名 createdby
PARAM_VALUE 参数值 lxw1234

注:DBS和DATABASE_PARAMS这两张表通过DB_ID字段关联。

 

3 Hive表和视图相关的元数据表(主要有TBLS、TABLE_PARAMS、TBL_PRIVS,这三张表通过TBL_ID关联。)

  • (1)TBLS:该表中存储Hive表、视图、索引表的基本信息。
元数据表字段 说明 示例数据
TBL_ID 表ID 1
CREATE_TIME 创建时间 1436317071
DB_ID 数据库ID 2,对应DBS中的DB_ID
LAST_ACCESS_TIME 上次访问时间 1436317071
OWNER 所有者 liuxiaowen
RETENTION 保留字段 0
SD_ID 序列化配置信息 86,对应SDS表中的SD_ID
TBL_NAME 表名 lxw1234
TBL_TYPE 表类型 MANAGED_TABLE、EXTERNAL_TABLE、INDEX_TABLE、VIRTUAL_VIEW
VIEW_EXPANDED_TEXT 视图的详细HQL语句 select `lxw1234`.`pt`, `lxw1234`.`pcid` from `liuxiaowen`.`lxw1234`
VIEW_ORIGINAL_TEXT 视图的原始HQL语句 select * from lxw1234

 (2)TABLE_PARAMS:该表存储表/视图的属性信息。

元数据表字段 说明 示例数据
TBL_ID 表ID 1
PARAM_KEY 属性名 totalSize、numRows、EXTERNAL
PARAM_VALUE 属性值 970107336、21231028、TRUE

 (3)TBL_PRIVS:该表存储表/视图的授权信息

元数据表字段 说明 示例数据
TBL_GRANT_ID 授权ID 1
CREATE_TIME 授权时间 1436320455
GRANT_OPTION   0
GRANTOR 授权执行用户 liuxiaowen
GRANTOR_TYPE 授权者类型 USER
PRINCIPAL_NAME 被授权用户 username
PRINCIPAL_TYPE 被授权用户类型 USER
TBL_PRIV 权限 Select、Alter
TBL_ID 表ID 22,对应TBLS表中的TBL_ID

 

4 Hive文件存储信息相关的元数据表(主要涉及SDS、SD_PARAMS、SERDES、SERDE_PARAMS)

由于HDFS支持的文件格式很多,而建Hive表时候也可以指定各种文件格式,Hive在将HQL解析成MapReduce时候,需要知道去哪里,使用哪种格式去读写HDFS文件,而这些信息就保存在这几张表中。

  • (1)SDS:该表保存文件存储的基本信息,如INPUT_FORMAT、OUTPUT_FORMAT、是否压缩等。

TBLS表中的SD_ID与该表关联,可以获取Hive表的存储信息。

元数据表字段 说明 示例数据
SD_ID 存储信息ID 1
CD_ID 字段信息ID 21,对应CDS表
INPUT_FORMAT 文件输入格式 org.apache.hadoop.mapred.TextInputFormat
IS_COMPRESSED 是否压缩 0
IS_STOREDASSUBDIRECTORIES 是否以子目录存储 0
LOCATION HDFS路径 hdfs://namenode/hivedata/warehouse/ut.db/t_lxw
NUM_BUCKETS 分桶数量 5
OUTPUT_FORMAT 文件输出格式 org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat
SERDE_ID 序列化类ID 3,对应SERDES表
注:查询指定库中stored as textfile类型的所有表名

select 
  d.NAME, 
  t.TBL_NAME,
  s.INPUT_FORMAT,
  s.OUTPUT_FORMAT
from TBLS t
join DBS d
join SDS s
where t.DB_ID = d.DB_ID
and t.SD_ID = s.SD_ID
and d.NAME='test'
and s.INPUT_FORMAT like '%TextInputFormat%';

 (2)SD_PARAMS:该表存储Hive存储的属性信息,在创建表时候使用

STORED BY ‘storage.handler.class.name’ [WITH SERDEPROPERTIES (…)指定。

元数据表字段 说明 示例数据
SD_ID 存储配置ID 1
PARAM_KEY 存储属性名  
PARAM_VALUE 存储属性值  
  • (3)SERDES:该表存储序列化使用的类信息
元数据表字段 说明 示例数据
SERDE_ID 序列化类配置ID 1
NAME 序列化类别名  
SLIB 序列化类 org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe

 (4)SERDE_PARAMS:该表存储序列化的一些属性、格式信息,比如:行、列分隔符

元数据表字段 说明 示例数据
SERDE_ID 序列化类配置ID 1
PARAM_KEY 属性名 field.delim
PARAM_VALUE 属性值 ,

 注:查询库的所有表字段的分隔符

select d.NAME, t.TBL_NAME,s.INPUT_FORMAT,s.OUTPUT_FORMAT,a.PARAM_VALUE,s.SERDE_ID 
        from TBLS t join DBS d join SDS s join SERDE_PARAMS a 
       on t.DB_ID = d.DB_ID 
       and t.SD_ID = s.SD_ID 
      and s.SERDE_ID=a.SERDE_ID 
      where d.name='databasename' 
      and a.PARAM_KEY='field.delim'  ;

5 Hive表字段相关的元数据表(主要涉及COLUMNS_V2)

  • COLUMNS_V2:该表存储表对应的字段信息。
元数据表字段 说明 示例数据
CD_ID 字段信息ID 1
COMMENT 字段注释  
COLUMN_NAME 字段名 pt
TYPE_NAME 字段类型 string
INTEGER_IDX 字段顺序 2

注:查找一个库所有的表或者一张表的表结构:

 select t.tbl_name,a.NAME,c.COMMENT,c.COLUMN_NAME,c.TYPE_NAME,c.INTEGER_IDX from TBLS t join DBS a join SDS b join COLUMNS_V2 c on t.DB_ID=a.DB_ID and t.SD_ID=b.SD_ID and  b.CD_ID=c.CD_ID where tbl_name='aa' or a.NAME='databasename'

6 Hive表分区相关的元数据表(主要涉及PARTITIONS、PARTITION_KEYS、PARTITION_KEY_VALS、PARTITION_PARAMS

  • (1)PARTITIONS:该表存储表分区的基本信息。

元数据表字段 说明 示例数据
PART_ID 分区ID 1
CREATE_TIME 分区创建时间  
LAST_ACCESS_TIME 最后一次访问时间  
PART_NAME 分区名 pt=2015-06-12
SD_ID 分区存储ID 21
TBL_ID 表ID 2
注:查询某表的分区
在Spark-sql查询hive表时,会由于元数据中文件与hdfs文件不一致而出现TreeNodeException的异常。比如说,在hive中show partitions时有分区pt=20160601,但是对应HDFS路径下并没有这个子文件夹时,在Spark-sql中就会出现该异常。
这时如果需要查询某表的分区,就可以使用如下语句

SELECT p.* from PARTITIONS p
JOIN TBLS t
ON t.TBL_ID=p.TBL_ID
WHERE t.TBL_NAME='table'
AND PART_NAME like '%pt=20160601%';

  • (2)PARTITION_KEYS:该表存储分区的字段信息。

元数据表字段 说明 示例数据
TBL_ID 表ID 2
PKEY_COMMENT 分区字段说明  
PKEY_NAME 分区字段名 pt
PKEY_TYPE 分区字段类型 string
INTEGER_IDX 分区字段顺序 1
注:(1)查询指定库中某种存储类型的非分区表

select
  db.NAME,
  tb.TBL_NAME,
  s.INPUT_FORMAT,
  s.OUTPUT_FORMAT
from TBLS tb
join DBS db
join SDS s
where tb.DB_ID = db.DB_ID
and tb.SD_ID = s.SD_ID
and db.NAME='test'
and s.INPUT_FORMAT like '%TextInputFormat%'
and tb.TBL_ID not in (select distinct TBL_ID from PARTITION_KEYS);

(2)查询指定库中某种存储类型的分区表

select
  db.NAME,
  tb.TBL_NAME,
  pk.PKEY_NAME,
  s.INPUT_FORMAT,
  s.OUTPUT_FORMAT
from TBLS tb
join DBS db
join PARTITION_KEYS pk
join SDS s
where tb.DB_ID = db.DB_ID
and tb.TBL_ID=pk.TBL_ID
and tb.SD_ID = s.SD_ID
and db.NAME='test'
and s.INPUT_FORMAT like '%TextInputFormat%';

(3)查询指定库的非分区表

select
  db.NAME,
  tb.TBL_NAME
from TBLS tb
join DBS db
where tb.DB_ID = db.DB_ID
and db.NAME='test'
and tb.TBL_ID not in (
  select distinct TBL_ID from PARTITION_KEYS
) ;

(4)查询指定库中的分区表

select
  db.NAME,
  tb.TBL_NAME,
  pk.PKEY_NAME 
from TBLS tb
join DBS db
join PARTITION_KEYS pk
where tb.DB_ID = db.DB_ID
and tb.TBL_ID=pk.TBL_ID
and db.NAME='test';

 (3)PARTITION_KEY_VALS:该表存储分区字段值。

元数据表字段 说明 示例数据
PART_ID 分区ID 2
PART_KEY_VAL 分区字段值 2015-06-12
INTEGER_IDX 分区字段值顺序 0

 (4)PARTITION_PARAMS:该表存储分区的属性信息。

元数据表字段 说明 示例数据
PART_ID 分区ID 2
PARAM_KEY 分区属性名 numFiles、numRows
PARAM_VALUE 分区属性值 15、502195
       注:查看分区表的分区大小和行数

SELECT tbl_name,sum(case when param_key='numRows' then  param_value else 0 end) 'rownum',
sum(case when param_key='numRows' then  1 else 0 end) 'part_num' ,
sum(case when param_key='totalSize' then  param_value else 0 end)/1024/1024/1024 'totalSize',
sum(case when param_key='numFiles' then  param_value else 0 end) 'numFiles'
FROM hive_meta.PARTITIONS pt 
inner join PARTITION_PARAMS ptp on pt.PART_ID=ptp.PART_ID
inner join hive_meta.TBLS tbl on pt.TBL_ID= tbl.TBL_ID
where tbl_name in (
'a','b'
)  and owner='username'
group by tbl_name

你可能感兴趣的:(hive元数据表结构解析)