HIVE操作基础实战

hive是基于Hadoop的一个数据仓库工具,提供了丰富的SQL查询方式来分析存储在Hadoop分布式文件系统中的数据。

一、HIVE基础概念与操作

1、Hive 内部表和外部表关系

学习create table时经常会遇到“内部表”、“外部表”的概念,因此需要梳理一下这两类表的关系

差异 内部表 外部表
创建 默认创建为内部表 需要加关键字external创建
sql create create table create external table....location '/path'
对数据的处理 将数据移动到数据仓库指向的路径 仅记录数据所在的路径,不对数据的位置做任何改变
删除 内部表的元数据和数据会被一起删除 外部表只删除元数据,不删除数据

【场景使用】[1]
外部表:比如某个公司的原始日志数据存放在一个目录中,多个部门对这些原始数据进行分析,那么创建外部表是明智选择,这样原始数据不会被删除。
内部表:对原始数据或比较重要的中间数据进行建表存储

2、分区是什么?

hive为了避免全表查询,从而引进分区,将数据按目录进行划分,减少不必要的查询,从而提高效率。

(1)分区表创建
hive的分区字段采用表外字段,在建表时partitioned by设定分区字段

CREATE table t_part(
    id int
    , name string
)
partitioned by (country string)
ROW format delimited
fields terminated by ','

(2)插入数据
插入分区及数据内容

insert into t_part partition(country='China') values(7,'Mark');
insert into t_part partition(country='China') values(9,'Tony');
insert into t_part partition(country='US') values(10,'Jane');
insert into t_part partition(country='US') values(11,'Lisa');
# 批量插入模式
insert into t_part partition(country='US') values(7,'Mark'),(9,'Tony'),(10,'Jane'),(11,'Lisa')

可以用show partitions t_part查看分区情况

(3)数据检索
分区表的意义在于优化查询。查询时尽量利用分区字段,如果不使用分区字段,就会全表扫描。

SELECT * FROM t_part WHERE country='China'
3、建表

(1)人工建表
create table的时候需要设置字段、字段类型,还有分隔符的设置

CREATE TABLE IF NOT EXISTS student(
    id int
    , name string
    ,age int
    ,class string
)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY '\t'

(2)基于已有表建立

CREATE TABLE IF NOT EXISTS student
AS
SELECT ...
4、INSERT 数据插入

insert有两种方式,一种是人为插入数据,一种为select检索后插入数据(ps还有导入文本插入,暂放)

插入方式 SQL
人工插入 INSERT INTO table_name(field1,field2) VALUES(v101,v102),(v201,v202),(v301,v302),(v401,v402)
检索插入 INSERT INTO t2(field1,field2) SELECT col1,col2 FROM t1 WHERE

在insert into 和 insert overwrite的选择上,insert into直接追加到表中数据的尾部,而insert overwrite会重写数据,既先进行删除,再写入,采用哪种方式根据项目要求选择。

5、ALTER 对表的操作

ALTER TABLE 语句用于在已有的表中对列的操作。

操作 SQL
增加列 ALTER TABLE table_name ADD columns(column_name datatype)
删除列 ALTER TABLE table_name DROP COLUMN column_name
修改列类型 ALTER TABLE table_name CHANGE old_col_name new_col_name new_col_type
表的重命名 ALTER TABLE table_name RENAME COLUMN a TO b

例如将表emp重命名为students,添加一个名为 "birthday" 的新列,dete格式。SQL如下:

ALTER TABLE emp RENAME TO students
ALTER table students ADD columns(birthday date)

注意:转换格式时,String类型到int类型是数据类型高阶到低阶转化,这一般是被禁止的。就像可以由int转double是无损的,但是double转int会损失精度所以也不能转化。几乎所有的数据类型都能转化成string

6、内置函数

HIVE提供了很多内置函数用来支持基础数据操作,详细可参考Hive2.0函数大全(中文版)。

二、案例实践

数据对象为student和black_name

1、【案例一】修改错误问题

【需求】插入balck_name信息时,小明重复插入了,需要对balck_name表做去重处理;表student id=8的name应该为“小曹”,需要修正过来
【技术点】row_number、update、overwrite、if

【实现步骤】
(1)black_name去重
使用row_number可以记录目标对象出现的次数,SELECT name, Row_Number() OVER (partition by name ORDER BY name desc) rank FROM student,所以选择第一次出现的值即可(rank=1)

insert overwrite table black_name
SELECT name
FROM (
    SELECT name, row_number() OVER (PARTITION BY name ORDER BY name DESC) AS rn
    FROM black_name
) t
WHERE t.rn = 1

(2)修改错误
HIVE作为一种分布式环境下以HDFS为支撑的数据仓库,它同样更多的要求数据是不可变的,基本不用hive做数据更新

可以通过update来修改数据。如果一个表要实现update和delete功能,该表就必须支持ACID(语法是update 表名 set 字段名=“”where 条件)

有点麻烦,换个方法试试看

INSERT overwrite table student
SELECT id
    , if(id = 8, '小曹', name)
    , age, class
FROM student

成功!

2、【案例二】去重用逗号分隔

【需求】根据name做group by,每个人的课程去重用逗号分隔,为string格式

【技术点】collect_set、concat_ws

【实现步骤】
(1)collect_set 去重取值
Hive中支持将某列转为一个数组返回的函数有collect_list和collect_set。不同的是collect_list不去重,而collect_set去重。

SELECT name,collect_set(class)
FROM student
GROUP BY name

(2)CONCAT的拼接
Hive中支持将list拼接为string的为concat和concat_ws,concat对字符串按次序进行拼接,concat_ws指定分隔符,进行拼接

SELECT name,concat_ws(',',collect_set(class))
FROM student
GROUP BY name
3、【案例三】生成md5编号

【需求】根据name、class、age为每一行生成一个md5编号
【技术点】md5、concat、cast

【实现步骤】
Hive提供md5(string/binary)返回md5码;concat支持把不同类型的字段组装;cast支持字段类型的转换

SELECT name,md5(CAST(concat(name, class, CAST(age AS STRING)) AS BINARY))
FROM student
# 简化版
SELECT name,md5(concat(name,class,age))
FROM student
4、【案例四】各类格式日期生成

【需求】每一行增加5个字段:
字段一为此刻的时间格式为“yyyy-MM-dd hh:mm:ss";
字段二为此刻的时间戳格式;
字段三为“XXXX年XX月XX日”格式的此刻时间;
字段四为减去90天的时间,格式为“yyyy-MM-dd"

【技术点】current_timestamp、unix_timestamp、from_unixtime、date_sub

【实现步骤】
Hive使用current_timestamp()获得当前时间,格式为“yyyy-MM-dd hh:mm:ss";
格式转换方面,unix_timestamp用于转换time string为时间戳格式,from_unixtime支持将时间戳转换为time string
日期差值方面,datediff(string enddate,string startdate)返回结束日期减去开始日期的天数;date_add(string startdate, int days)返回开始日期startdate增加days天后的日期;date_sub (string startdate,int days)返回开始日期startdate减去days天后的日期,返回yyyy-MM-dd日期格式

SELECT current_timestamp() as a
    ,unix_timestamp() as b
    ,from_unixtime(unix_timestamp(),'yyyy年MM月dd日') as c
    ,date_sub(CAST(current_timestamp() AS DATE),30) as d
FROM student
5、【案例五】数量大于某个值

【需求】输出name出现行数大于1的完整信息
【技术点】a.*

【实现步骤】
因为需要指定要输出完整信息,SELECT * FROM student group by name是不合理、无法运行、无法输出完整信息的。

SELECT a.*
FROM (
    SELECT *
    FROM student
) a
    INNER JOIN (
        SELECT name
        FROM student
        GROUP BY name
        HAVING COUNT(name) > 1
    ) b
    ON a.name = b.name
SELECT *
FROM student
WHERE student.name IN (
    SELECT name
    FROM student
    GROUP BY name
    HAVING COUNT(name) > 1
)
6、【案例六】多表匹配

【需求】获得不在黑名单的student信息

【技术点】left join、full outer join、right join、inner join

比较inner join、full join、left join、right join的效果

【实现步骤】

SELECT a.*
FROM student a
    LEFT JOIN (
        SELECT name
        FROM black_name
    ) b
    ON a.name = b.name
    WHERE b.name is NULL
7、【案例七】[{[]}]格式

【需求】输出字段info,该字段内容为:[{'name':name,'class':['奥数']}]。要求最外面为[],中间为{},class字段对应为[]

【技术点】str_to_map,named_struct

【实现步骤】
str_to_map支持将文本转换为{}形式,但显然是无法满足当前需求的
str_to_map('aaa:11&bbb:22', '&', ':')
发现函数named_struct可以实现该功能
named_struct('type', name, 'info', collect_set(class))

三、备注

  • SQL代码格式化:https://tool.oschina.net/codeformat/sql
  • 以上截图基于DBeaver界面

参考资料

[1] Hive外部表和内部表的使用场景:https://blog.csdn.net/qq_34341930/article/details/89032791
[2] 《HIVE编程指南》

你可能感兴趣的:(HIVE操作基础实战)