本实验任务主要完成基于Hive环境执行一些常用的Hive SQL语句操作,通过完成本实验任务,要求学生熟练掌握Hive SQL的常用语句,掌握Hive的基础和操作。
掌握Hive的数据类型
掌握hive的数据类型的使用
掌握hive的DDL语句的操作
本次环境是:Ubuntu16.04+hadoop-2.7.3.+apache-hive-1.2.2-bin
数据量巨大且保存时间长;
在大量数据上进行复杂的批量运算;
数据在计算之前已经完全到位,不会发生变化;
能够方便的查询批量计算的结果;
不像在线计算当前呈现的各种框架和架构,离线处理目前技术上已经成熟,大家使用的均是:使用Hdfs存储数据,使用MapReduce做批量计算,计算完成的数据如需数据仓库的存储,直接存入Hive,然后从Hive 进行展现。
Hdfs 是一种分布式文件系统,和任何文件系统一样Hdfs提供文件的读取,写入,删除等操作。Hdfs 是能够很好的解决离线处理中需要存储大量数据的要求Hdfs和本地文件系统的区别如下:
• ResourceManager: 负责资源的调度,由两个组件组成:调度器和应用管理 ApplicationsManager (ASM) ;
• ApplicationsManager (ASM) :主要用于管理AM;
• ApplicationMaster (AM) :主要用于管理其对应的应用程序,如MapReduce作业,DAG作业等;
• NodeManager (NM):主要用于管理某个节点上的task和资源;
• Container :容器中封装了机器资源,如内存,CPU, 磁盘,网络等,每个任务会被分配一个容器,该任务只能在该容器中执行,并使用该容器封装的资源
Hive 是一种数据仓库,Hive中的数据存储于文件系统( 大部分使用 Hdfs),Hive 提供了方便的访问数据仓库中数据的HQL方法,该方法将SQL翻译成MapReduce。能够很好的解决离线处理中需要对批量处理结果的查询。
Hive是对MapReduce和HDFS的高级封装,本身不存储表等相关信息。
Hive 将元数据存放在 metastore 中, Hive 的 metastore 有三种工作方式:
实验所需数据和格式如下:
employees.txt内容
John Doe,100000.0,Mary Smith|Todd Jones,Federal Taxes:.2|State Taxes:.05|Insurance:.1,1 Michigan Ave.|Chicago|IL|60600
Mary Smith,100000.0,Mary Smith|Todd Jones,Federal Taxes:.2|State Taxes:.05|Insurance:.1,1MichiganAve.|Chicago|IL|60601
Todd Jones,800000.0,Mary Smith|Todd Jones,Federal Taxes:.2|State Taxes:.05|Insurance:.1,1MichiganAve.|Chicago|IL|60603
Bill King,800000.0,Mary Smith|Todd Jones,Federal Taxes:.2|State Taxes:.05|Insurance:.1,1 Michigan Ave.|Chicago|IL|60605
Boss Man,100000.0,Mary Smith|Todd Jones,Federal Taxes:.2|State Taxes:.05|Insurance:.1,1 Michigan Ave.|Chicago|IL|60604
Fred Finance,800000.0,Mary Smith|Todd Jones,Federal Taxes:.2|State Taxes:.05|Insurance:.1,1 Michigan Ave.|Chicago|IL|60400
Stacy Accountant,800000.0,Mary Smith|Todd Jones,Federal Taxes:.2|State Taxes:.05|Insurance:.1,1 Michigan Ave.|Chicago|IL|60300
新建hql文件,在命令终端分别执行命令:cd /simple/
和touch create.hql
,如图1所示。
图1 创建文件
向其中写入hql语句,在命令终端中,在/simple目录下执行命令:vim create.hql
, 向其中添加以下语句
1.
2. create table employee(
3.
4. name string,
5.
6. salary float,
7.
8. subordinate array<string>,
9.
10. deduction map<string,float>,
11.
12. address struct<street:string,city:string,state:string,zip:int>
13.
14. )
15.
16. row format delimited fields terminated by ","
17. collection items terminated by "|"
18. map keys terminated by ":";
最终创建如图2所示。
图2 代码显示
执行命令:service mysql start
启动mysql服务,然后执行命令:start-all.sh
启动hadoop,如图3所示。
图3 启动hadoop服务
执行命令:cd /simple/hive/bin
进入hive的安装目录bin下,执行命令:./hive
启动hive终端,如图4所示。
图4 进入hive shell界面
hive命令行中执行以下语句:source /simple/create.hql;
如图5所示。
图5 在hive中执行文件创建表
可以看出创建成功。
通过load命令向表中加载本地数据,如图6所示。
图6 向表中加载数据
使用索引查询集合数据类型中的元素。数组索引是基于0的,这和java中是一样的,下面是选择subordinate数组中的第一个元素的查询,如图7所示。
图7 查询数组数据
引用map类型中的一个元素。用户可以使用ARRAY[…]
语法,但是使用的是键值而不是整数索引,如图8所示。
图8 查询map数据
引用struct中的一个元素,用户可以使用“.
“符号,如图9所示。
图9 查询struct数据
使用group by计算门牌号相同的雇员的总薪水,执行命令”select address.zip,sum(salary) from employee group by address.zip;
”,如图10所示。
图10 门牌号相同的雇员的总薪水
使用group by 计算不同州的员工的平均薪水,执行命令”select address.state,avg(salary) from employee group by address.state;
”,如图11所示。
图11 不同州的员工的平均薪水
可以看出,现在表中所有员工都位于IL州,所以最终结果只有一条记录。
使用group by 计算不同城市的员工的平均薪水,执行命令”select address.city,avg(salary) from employee group by address.city;
”,如图12所示。
图12 不同城市的员工的平均薪水