转载地址:http://blog.csdn.net/xiaoshunzi111/article/details/48727831
1、创建一个表,字段之间用 \t 分隔;
Hive>create table student (id int, name string) row format delimited fields terminated by '\t' ;
hive>load data local inpath '/home/student.txt' into table student ;
2.1 增加分区表数据
alter table ZHIYOUBAO.CHECK_RECORD add partition (years='xxxx',months='xx',days='xx') location '/ZYB/CHECK_RECORD/yy=xxxx/mm=xx/dd=xx/';
3、查询表里的数据:hive>select * from student ;
hive>select * from student limit 2 ;
hive>select count(*) from student ;
hive>select sum(id) from student ;
hive>create external table ext_student (id int, name string) row format delimited fields terminated by ' \t ' location ' /data ' ; //这样就不必将文件放到hive里去 就可以对其进行操作了 ,只需要将文件放到hdfs上的/data目录下面。
8、内部表先有表后有数据;外部表先有数据后有表。
hive>select * from beauties where nation='China' ; //查找某一分区的数据内容;
hive>select t . account , u . name , t . income , t . expenses , t . surplus from user_info u join (select account , sum(income) as income , sum(expenses) as expenses , sum(income-expenses) as surplus from
trade_detail group by account) t on u . account = t . account ;
11、存储过程没有返回值,函数有返回值
[hh@master ~]$ hive -e "selcte * from mytable limit 3" ;
13、[hh@master ~]$ hive -f 1.hql
hive>describe yourtable ;
hive>create database if not exists financials ;
hive>show databases like " f . * " ;
hive> describe database extended test092302;
hive> drop database human_resources;
hive> drop database test0923 cascade; //在后面加上cascade关键字
hive> create database test092302 comment 'Holds all test tables'; //使用comment,创建表时也可以用
hive>select * from mytable group by uid ;
hive>select count(distinct(uid)) from mytable ; (高效) 或者 hive>select count(*) from(select * from mytable group by uid) a ;
hive> select keyword,count(*) as cnt from sogou_1w group by keyword order by cnt desc limit 50;
hive> insert overwrite table sogou.uid_cnt select uid,count(*) from sogou_1w group by uid; //再将查询的数据结果放入临时表中
25 修改列名:
hive> alter table test
> column ·stuname· name string;“ · ”右上角的~键
describe test;
26 增加列:
hive> alter table test add columns(
> height int);
hive>describe test;
27替换列:
hive> alter table test replace columns(
> id int,
> name string,
> age int);
28 为表添加属性:
hive> alter table test set tblproperties (
> 'note'='hello welcome');
show create table test;
========================================
29 创建带有分区的内部表:
hive> create table testpar(
> id int,
> name string,age int) PARTITIONED BY (day string)
> ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'
> location '/testpar';
30 为带有分区的内部表加载数据:
hive> load data local inpath '/home/test' into table testpar
> partition (day='0925');
31 添加防止删除的保护:
hive> alter table testpar
> partition (day='0925') enable no_drop;
32 测试:删除分区
hive> alter table testpar drop if exists partition (day='0925');
33 删除添加的"删除"保护:
hive> alter table testpar
> partition (day='0925') disable no_drop;
34 添加防止查询的保护:
hive> alter table testpar
> partition (day='0925') enable offline;
35 删除防止查询的保护:
hive> alter table testpar
> partition (day='0925') disable offline;
select * from testpar;
================================================
36 按条件向分区表插入数据
hive>from test_1 ts
insert into table testpart partition (day='0920') select * where ts.age>20
insert into table testpart partition (day='0919') select * where ts.name='xiaofang';
注释:
上面SQL语句分三部分
第一部分
from test_1 ts 从rest_1表中查询并为其添加ts别名
第二部分
insert into table testpart partition (day='0920') select * where ts.age>20
将test_1表中年龄大于20的数据添加到分区表testpart中新建的0920分区中.
第三部分
insert into table testpart partition (day='0919') select * where ts.name='xiaofang'
将test_1表中名字为xiaofang的数据添加到分区表testpart中新建的0919分区中
查询结果:
hive> select * from testpart;
37 向管理表中加载数据:
hive> load data local inpath '/home/test' overwrite into table testpar partition (day='0925');
38 通过查询语句向表中插入数据:
hive> insert into table testpar
> partition (day='0926')
> select * from test;
hive> select * from testpar;
hive> insert into table testpar
> partition (day='0922')
> select * from test
> where age >20;
hive> from test
> insert into table testpar
> partition (day='0921')
> select * where age>22;
hive> from test ts
> insert into table testpar
> partition (day='0920')
> select * where ts.age>20
> insert into table testpar
> partition (day='0919')
> select * where ts.name='张三';
==================动态分区插入===================
39 在test表中添加一列day
hive> alter table test add columns(day string);
[hh@master ~]$ vi test
[hh@master ~]$ cat test
1 张三 20 0921
2 李四 22 0922
3 Jarrey 25 0923
40 加载数据:
hive> load data local inpath '/home/test' overwrite into table test;
动态分区(下面两种方式实现的效果是一样的):
hive> set hive.exec.dynamic.partition=true;
hive> set hive.exec.dynamic.partition.mode=nonstrict;
hive> set hive.exec.max.dynamic.partitions.pernode=1000;
hive> insert into table testpar
> partition(day)
> select * from test;
hive> insert into table testpar
> partition(day)
> select id,name,age,day from test;
41单个查询语句中创建表并加载数据:(注意关键字as)
hive> create table newtest
> as select id,name,age from test
> where name='李四';
hive> select * from newtest;
====================导出数据======================
42 Hadoop fs –cp source_path target_path
cp
scp -r /jdk slave://home/
注释:
scp =safety copy 即是安全模式下复制 r=recuresive 递归方式复制 即是从主目录到各个子目录依次复制
Sqoop工具(T15)
========hdfs数据加载等操作=======
43 从hdfs集群中加载数据
hive>load data inpath 'hdfs目录文件' into table student;
44 按id降序排序
hive>select * from student order by id desc;
45 从hdfs集群中加载数据并为表设置指定分区
hive>load data input '本地文件路径' into table 表名 partition (分区字段=' ');
46 从本地内存中加载数据
hive>load data local inpath '本地目录文件' into table student;
47 按id降序排序
hive>select * from student order by id desc;
48 表联合查询
hive>select t.account u.name,t.income,t.expenses,t.surplus from user_info
u join (select account, sum(income) as income,sum(expenses) as expenses,sm(income_expenses)
as surplus from trade_detail group by account) on u.account=t.account;
==================数学函数:===================
Hive语句运算:
49 int类型rank加运算
hive>select rank+1 from ext_sogou_20111230 limit 100;
50 对int字段平方
hive> select pow(rank,2) from ext_sogou_20111230;
51 取模:(如:2对三取模)
hive>select pmod(2,3) from ext_sogou_20111230 limit 10;
==============聚合函数========================
52 统计表中所有行数
hive>select count(*) from ext_sogou_20111230 limit 10;
*表示表中所有字段也可以设置某些或某个字段 如
hive>select count(uid,ts) from ext_sogou_20111230 limit 10;
53.
hive>select sum(uid) from ext_sogou_20111230;
54 最大值&最小值
hive>select max(rank), min(rank) from ext_sogou_20111230;
55 .独立uid(去重行数)
hive>select count(distinct uid) from ext_sogou_20111230;
56强转:
hive> select cast(rank as DOUBLE) from ext_sogou_20111230 limit 10;
57 拼接:
hive>select concat(uid,url) from ext_sogou_20111230 limit 10;
=================JSON========================
58 抽取JSON对象的某一属性值
hive>select get_json_object('{"name":"xiaoming","age":"15"}','$.age') from ext_sogou_20111230 limit 5;
结果:
15
59
hive>select get_json_object(channel,'$.age') from ext_sogou_20111230 limit 3;
=============================================
60 查找url字符串中的5位置之后字符串baidu第一次出现的位置
hive> select locate("baidu",url,5) from ext_sogou_20111230 limit 100;
61 .抽取字符串baidu中符合正则表达式url的第5个部分的子字符串
hive> select regexp_extract("baidu",url,5) from ext_sogou_20111230 limit 100;
62 按照正则表达式"0"分割字符串uid,并将分割后的部分以字符串数组的方式返回
hive> select split(uid,"0") from ext_sogou_20111230 limit 100;
结果之一:["","875edc8a14a228","1bac1ddc","1fa18a1"]
63 对字符串url,从0处开截取长度为3的字符串,作为其子字符串
hive> select substr(url,0,3) from ext_sogou_20111230 limit 3;
64 .将字符串url中所有的字母转换成大写字母
hive> select upper(url) from ext_sogou_20111230 limit 3;
============别名 嵌套SQL语句===============
65 复杂HQL 如别名、嵌套等
hive>select count(distinct e.uid) from (select * from ext_sogou_20111230 where
rank <=3 and order =1) e;
小括号中返回的也是一个表,它只是临时的 别名为e
66 where ..and 或者 where ....or where的 两种条件查询
hive> select * from ext_sogou_20111230 where rank<=3 and order =1 limit 3;
hive> select * from ext_sogou_20111230 where rank !=0 or order =1 limit 3;
where
1 出现在表后
2 可以有and or 表达式的操作符
3 表示格式
67 浮点类型的比较 一定要强转
68 like 过滤字符串
它是一个标准的SQL操作符
hive> select * from ext_sogou_20111230 where url like '%http%' limit 10;
'%http%'意为包含 http字符串
'%http' 以http开头的字符串
'http%'一http结束字符串
69 rlike 通过Java的正则表达式过滤 *与%功能一样
它是hive中扩展功能的操作符
hive> select * from ext_sogou_20111230 where url rlike ' .*http.* ' limit 3;
from ext_sogou_20111230 m join ext_sogou_20111230_limint3 n on m.uid=n.uid;
create table insert overwrite table...select * from ...
where rank<3 group by uid having nct>2;
=======================
hive设计模式
=======================
20151008
AM
1.表的划分方式:按天划分如table_2011_01_01
2.分区:hive中的分区功能很有用,
3 最原始的数据尽量少使用分区,
经过加工后的数据可以用分区.
4 表与分区的字段不能重复
5 分区有级别 根据实际的业务自定义分区
create table supply () partitioned by();
91 同一份数据多种处理
hive>insert overwrite table sogou_20111230_rank
select * from sogou_20111230 where rank=3;
92
hive>insert overwrite table sogou_20111230_order
select * from sogou_20111230 where order=3;
上面两句(91 92)合并成一句(93)如下
93
hive>from sogou_20111230
insert overwrite table sogou_20111230_rank
select * where rank =3
insert overwrite table sogou_20111230_order
select * where order=3;
94 为表增加列 (只能末尾追加)
ALTER TABLE sogou_20111230 ADD COLUMNS (user_id string) ;
列的存储有两种格式ORC和RCFile
========================================
Hive内置函数和UDF(用户自定义函数)
========================================
95 查看内置函数
hive> show functions;
96 查看某一函数具体描述
hive>describe function 函数名;
一般聚合函数与group by 组合使用
分3种:
1 UDF(标准函数):普通函数
2 UDAF(用户自定义聚合函数):多行多列变一行
3 UDTF(用户自定义表生成函数):多行多列变多行
===========UDF操作过程==============
91 在eclipse中创建java类 如UDFZodiacSign
92 添加UDFZodiacSign的jar包
hive>add jar /home/udf.jar
93 创建外部表如little_bigdata
hive>create external table if not exists
little_bigdata(name string,email string,bday
string,ip string, gender string, anum int)
row format delimited fields terminated by ',';
94 创建zodiac作为UDFZodiacSign类的临时函数 as'包名.类名'
hive>create temporary function zodiac as 'day1008.UDFZodiacSign';
95 查看zodiac是否OK
hive> describe function zodiac;
96 将little_bigdata表中name字段中数据传入临时函数zodiac中
hive> select zodiac(name) from little_bigdata;
============================================
97 统计没有农产品市场的省份有哪些
马:
hive> select e.name from (
select distinct prov from product
) a right outer join province e on a.prov = e.name
where a.prov is null
98统计排名前 3 的省份共同拥有的农产品类型
=============================
自定义Hive文件和记录格式
=============================
hive三种文件格式:textfile sequencefile rcfile
前两种一行存储 rcfile以列存储
他们影响整个文件格式
sequencefile 与 textfile 文件格式在读取效率上
testfile更高些
默认分隔符格式/001 即是Ctr+A
stored as textfile 表文件的存储格式
99 创建sequencefile格式的表
hive>create external table sogou_20111230_seq(ts string,
uid string,keyword string,rank int,order int
,url string) row format delimited fields
terminated by '\t' stored as sequencefile;
100 向该表中插入数据
hive>insert table sogou_20111230_seq select
ts,uid,keyword,rank,order,url from
sogou_20111230 limit 50000;
101 创建rcfile格式的表:基于列式存储
hive>create table sogou_20111230_rc(ts string,
uid string, keyword string,rank int, order
int, url string) row format delimited fields
terminated by '\t' stored as rcfile;
102 向该表中插入数据
hive>insert overwrite table sogou_20111230_rc
select ts, uid,keyword,rank,order,url
from ext_sogou_20111230 limit 50000;
103 记录格式 SerDe是序列化/反序列化的简写
104 CSV和TSV SerDe(csv内部实现各式逗号分割\n换行)
hive 记录格式:影响文件内部数据存储格式
105 XPath相关的函数
hive>SELECT xpath ('
bl
b2','//@id' )
FROM car_1 LIMIT 1;
106 计算北京市的每种农产品的价格波动趋势,即计算每天价格均值,并按照时间先后顺序排列该值。
某种农产品的价格均值计算公式:
PAVG = (PM1+PM2+...+PMn-max(P)-min(P))/(N-2)
其中, P 表示价格, Mn 表示 market,即农产品市场。 PM1 表示 M1 农产品市场的该产品价
格, max(P)表示价格最大值, min(P)价格最小值。
思路:
第一步:筛选出1-5天内 时间 熟菜名称 两个字段
第二步:用if三目运算,判断各种熟菜波动次数是否大于2次,
第三步:求平均值
hive>select m.date,m.name,if(count(*)>2,
round((sum(m.price)-max(m.price)-min(m.price))/(count(*)-2),2),
round(sum(m.price)/count(*),2))
from (
select * from product_20140101 where province='北京'
union all
select * from product_20140102 where province='北京'
union all
select * from product_20140103 where province='北京'
union all
select * from product_20140104 where province='北京'
union all
select * from product_20140105 where province='北京'
) m
group by m.date,m.name;
107 使用简单时间序列算法, 设置 N=3,预测 1.4、 1.5 日的平均价格
hive>create table price_hg_pre0104(ptime TIMESTAMP,name STRING,price FLOAT);
hive>insert overwrite table price_hg_pre0104
select * from price_hg where day(cast(ptime as string)) < 4
union all
select cast('2014-01-04 00:00:00' as timestamp) as ptime,'黄瓜' as name,sum(price)/3 as price from price_hg where day(cast(ptime as string)) < 4
108 并计算与实际数据的平方误差和
hive>create table price_hg_pre0105(ptime TIMESTAMP,name STRING,price FLOAT);
hive>insert overwrite table price_hg_pre0105
select cast('2014-01-05 00:00:00' as timestamp) as ptime,'黄瓜'
as name,sum(price)/3 as price from price_hg_pre where day(cast(ptime as string)) < 5
and day(cast(ptime as string)) > 1
109 表添加一列 :
hive> ALTER TABLE pokes ADD COLUMNS (new_col INT);
hive> ALTER TABLE invites ADD COLUMNS (new_col2 INT COMMENT 'a comment');
111 更改表名:
hive> ALTER TABLE events RENAME TO 3koobecaf;
112 删除列:hive> DROP TABLE pokes;
113增加、删除分区
•增加
• ADD是代表新增一字段,字段位置在所有列后面(partition列前)
119 create external table logs (ip string ,name1 string,name2 string,name3 string ,name4 string ,name5 string, name6 string, name7 string, name8 string,name9 string,name10 string,name11 string) row format delimited fields terminated by ' ';
select name1 from (select as c from logs where ip ='58.214.255.146';
数据格式:
183.166.128.178 - - [09/Apr/2016:07:58:33 +0800] "POST /boss/service/newCode.htm HTTP/1.1" 200 227 "-" "-"
120正序:
select ip ,sum(name9) as c from logs where name3 like '[09/Apr/2016:07:55%' group by ip order by c desc;
121 逆序:
select name6,count(1) as b from logs where name3 like '[09/Apr/2016:07:5%' group by name6 order by b asc;
122 逆序:
select name6,count(1) as b from logs where name3 like '[09/Apr/2016:07:5%' group by name6 sort by b asc;
123取前一千行放到一个新表里
hive> insert into table hivecontain_small
> select * from hivecontain limit 1000;
124 更新表字段
hive>insert overwrite table province_city_scenic_per_nums select spot_name, spot_city, substring(round(per,4),0,6) ,nums from province_city_scenic_per_nums ;
125 截取表字段部分值并插入新表
hive> insert table province_city_scenic_per_nums select spot_name, spot_city, substring(round(per,4),0,6) ,nums from province_city_scenic_per_nums ;
126.tourist_consume_details 用户消费信息(金额、订单数、游玩人次)
select link_name, sex, city ,tel, certificate_no ,sum(close_total_price) as total_price ,sum(popnum) as popnum,count(tourname) as tournum from order_raw_info
group by link_name,sex,city ,tel,certificate_no;
127.bucketed_user 分桶查询随机id
select * from bucketed_user TABLESAMPLE(BUCKET 1 OUT OF 4 ON rand())
128.bucketed_user 创建带桶的外部表
create external table if not exists bucketed_user2(id int,name string) clustered by (id) sorted by(name) into 4
buckets row format delimited fields terminated by ',' stored as textfile location '/kafka/' ;
129.province_city_scenic_per_nums 表字段的截取
select spot_name, spot_city, substring(round(per,4),0,6) ,nums from province_city_scenic_per_nums ;
130.province_city_scenic_per_nums 表字段更新(如0.001242更新为0.001)
insert overwrite table province_city_scenic_per_nums select spot_name, spot_city, substring(round(per,4),0,6) ,nums from province_city_scenic_per_nums ;
131.改表字段
alter table scenic_tour_info change `spotname` spot_name string;
132.split使用
select split("13901888346","1390188")[1] from quyu_visit_info limit 10;
133.quyu_visit_info 按条件插入表数据
insert into table quyu_visit_info select u.visitor_id, u.tel, u.city from solo_mobile_quyu u limit 100;
134.tourt_ype_date_total (new) 景区类型(按时间分组)游客量统计
select * from(
select p.date, p.tour_type,count(p.date) total
from (
select tour_type, substr(occ_date, 0,4) as date
from scenic_tour_info ) p
where p.date like '201%'
group by p.tour_type, p.date
order by p.date desc ) t
where t.date='2013' or t.date='2014' or t.date='2015' or t.date='2016';
135.date_spotprovince_type_total 按省份统计 景区类型(按时间分组)游客量统计
select * from(
select p.date, p.spot_province, p.tour_type as scenic_type,count(p.date) total
from (
select spot_province, tour_type, substr(occ_date, 0,4) as date
from scenic_tour_info ) p
where p.date like '201%'
group by p.spot_province,p.tour_type, p.date
order by p.date desc ) t
where t.date='2013' or t.date='2014' or t.date='2015' or t.date='2016' ;
136.scenic_city_province_per_nums 统计某省各景区客流量的比重(占该省比重)及其客流量
select distinct p.spot_name, p.spot_city, (p.nums/5358582) per ,p.nums
from province_city_scenic_nums p join province_tour_nums c
on p.spot_province='浙江省'
order by per desc
137.表重命名
ALTER TABLE tour_info_detail RENAME TO new_name; scenic_info_detail ;
138.rename_ziduan 重命名表字段名
alter table scenic_info_detail change `proname` spotprovince string;
下面引用:http://blog.csdn.NET/wisgood/article/details/17376393;感谢作者:wisgood
常用函数:
语法:A=B
操作类型:所有基本类型
描述:如果表达式A与表达式B相等,则为TRUE;否则为FALSE
举例:
Hive>select 1 from lxw_dual where 1=1;
1
语法: A <> B
操作类型:所有基本类型
描述:如果表达式A为NULL,或者表达式B为NULL,返回NULL;如果表达式A与表达式B不相等,则为TRUE;否则为FALSE
举例:
hive> select1 from lxw_dual where 1 <> 2;
1
语法: A < B
操作类型:所有基本类型
描述:如果表达式A为NULL,或者表达式B为NULL,返回NULL;如果表达式A小于表达式B,则为TRUE;否则为FALSE
举例:
hive> select1 from lxw_dual where 1 < 2;
1
语法: A <= B
操作类型:所有基本类型
描述:如果表达式A为NULL,或者表达式B为NULL,返回NULL;如果表达式A小于或者等于表达式B,则为TRUE;否则为FALSE
举例:
hive> select1 from lxw_dual where 1 <= 1;
1
语法: A > B
操作类型:所有基本类型
描述:如果表达式A为NULL,或者表达式B为NULL,返回NULL;如果表达式A大于表达式B,则为TRUE;否则为FALSE
举例:
hive> select1 from lxw_dual where 2 > 1;
1
语法: A >= B
操作类型:所有基本类型
描述:如果表达式A为NULL,或者表达式B为NULL,返回NULL;如果表达式A大于或者等于表达式B,则为TRUE;否则为FALSE
举例:
hive> select1 from lxw_dual where 1 >= 1;
1
注意:String的比较要注意(常用的时间比较可以先to_date之后再比较)
hive> select* from lxw_dual;
201111120900:00:00 2011111209
hive> selecta,b,ab,a=b from lxw_dual;
201111120900:00:00 2011111209 false true false
语法: A IS NULL
操作类型:所有类型
描述:如果表达式A的值为NULL,则为TRUE;否则为FALSE
举例:
hive> select1 from lxw_dual where null is null;
1
语法: A IS NOT NULL
操作类型:所有类型
描述:如果表达式A的值为NULL,则为FALSE;否则为TRUE
举例:
hive> select1 from lxw_dual where 1 is not null;
1
语法: A LIKE B
操作类型: strings
描述:如果字符串A或者字符串B为NULL,则返回NULL;如果字符串A符合表达式B 的正则语法,则为TRUE;否则为FALSE。B中字符”_”表示任意单个字符,而字符”%”表示任意数量的字符。
举例:
hive> select1 from lxw_dual where 'football' like 'foot%';
1
hive> select1 from lxw_dual where 'football' like 'foot____';
1
注意:否定比较时候用NOT ALIKE B
hive> select1 from lxw_dual where NOT 'football' like 'fff%';
1
语法: A RLIKE B
操作类型: strings
描述:如果字符串A或者字符串B为NULL,则返回NULL;如果字符串A符合Java正则表达式B的正则语法,则为TRUE;否则为FALSE。
举例:
hive> select1 from lxw_dual where 'footbar’ rlike '^f.*r$’;
1
注意:判断一个字符串是否全为数字:
hive>select 1from lxw_dual where '123456' rlike '^\\d+$';
1
hive> select1 from lxw_dual where '123456aa' rlike '^\\d+$';
语法: A REGEXP B
操作类型: strings
描述:功能与RLIKE相同
举例:
hive> select1 from lxw_dual where 'footbar' REGEXP '^f.*r$';
1
语法: A + B
操作类型:所有数值类型
说明:返回A与B相加的结果。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。比如,int + int 一般结果为int类型,而int + double一般结果为double类型
举例:
hive> select1 + 9 from lxw_dual;
10
hive> createtable lxw_dual as select 1 + 1.2 from lxw_dual;
hive> describelxw_dual;
_c0 double
语法: A– B
操作类型:所有数值类型
说明:返回A与B相减的结果。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。比如,int– int 一般结果为int类型,而int– double 一般结果为double类型
举例:
hive> select10 – 5 from lxw_dual;
5
hive> createtable lxw_dual as select 5.6 – 4 from lxw_dual;
hive>describe lxw_dual;
_c0 double
语法: A * B
操作类型:所有数值类型
说明:返回A与B相乘的结果。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。注意,如果A乘以B的结果超过默认结果类型的数值范围,则需要通过cast将结果转换成范围更大的数值类型
举例:
hive> select40 * 5 from lxw_dual;
200
语法: A / B
操作类型:所有数值类型
说明:返回A除以B的结果。结果的数值类型为double
举例:
hive> select40 / 5 from lxw_dual;
8.0
注意:hive中最高精度的数据类型是double,只精确到小数点后16位,在做除法运算的时候要特别注意
hive>select ceil(28.0/6.999999999999999999999) from lxw_duallimit 1;
结果为4
hive>select ceil(28.0/6.99999999999999) from lxw_dual limit1;
结果为5
语法: A % B
操作类型:所有数值类型
说明:返回A除以B的余数。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。
举例:
hive> select 41 % 5 from lxw_dual;
1
hive> select 8.4 % 4 from lxw_dual;
0.40000000000000036
注意:精度在hive中是个很大的问题,类似这样的操作最好通过round指定精度
hive> select round(8.4 % 4 , 2) from lxw_dual;
0.4
语法: A & B
操作类型:所有数值类型
说明:返回A和B按位进行与操作的结果。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。
举例:
hive> select 4 & 8 from lxw_dual;
0
hive> select 6 & 4 from lxw_dual;
4
语法: A | B
操作类型:所有数值类型
说明:返回A和B按位进行或操作的结果。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。
举例:
hive> select 4 | 8 from lxw_dual;
12
hive> select 6 | 8 from lxw_dual;
14
语法: A ^ B
操作类型:所有数值类型
说明:返回A和B按位进行异或操作的结果。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。
举例:
hive> select 4 ^ 8 from lxw_dual;
12
hive> select 6 ^ 4 from lxw_dual;
2
语法: ~A
操作类型:所有数值类型
说明:返回A按位取反操作的结果。结果的数值类型等于A的类型。
举例:
hive> select ~6 from lxw_dual;
-7
hive> select ~4 from lxw_dual;
-5
语法: A AND B
操作类型:boolean
说明:如果A和B均为TRUE,则为TRUE;否则为FALSE。如果A为NULL或B为NULL,则为NULL
举例:
hive> select 1 from lxw_dual where 1=1 and 2=2;
1
语法: A OR B
操作类型:boolean
说明:如果A为TRUE,或者B为TRUE,或者A和B均为TRUE,则为TRUE;否则为FALSE
举例:
hive> select 1 from lxw_dual where 1=2 or 2=2;
1
语法: NOT A
操作类型:boolean
说明:如果A为FALSE,或者A为NULL,则为TRUE;否则为FALSE
举例:
hive> select 1 from lxw_dual where not 1=2;
1
语法: round(double a)
返回值: BIGINT
说明:返回double类型的整数值部分(遵循四舍五入)
举例:
hive> select round(3.1415926) from lxw_dual;
3
hive> select round(3.5) from lxw_dual;
4
hive> create table lxw_dual as select round(9542.158) fromlxw_dual;
hive> describe lxw_dual;
_c0 bigint
语法: round(double a, int d)
返回值: DOUBLE
说明:返回指定精度d的double类型
举例:
hive> select round(3.1415926,4) from lxw_dual;
3.1416
语法: floor(double a)
返回值: BIGINT
说明:返回等于或者小于该double变量的最大的整数
举例:
hive> select floor(3.1415926) from lxw_dual;
3
hive> select floor(25) from lxw_dual;
25
语法: ceil(double a)
返回值: BIGINT
说明:返回等于或者大于该double变量的最小的整数
举例:
hive> select ceil(3.1415926) from lxw_dual;
4
hive> select ceil(46) from lxw_dual;
46
语法: ceiling(double a)
返回值: BIGINT
说明:与ceil功能相同
举例:
hive> select ceiling(3.1415926) from lxw_dual;
4
hive> select ceiling(46) from lxw_dual;
46
语法: rand(),rand(int seed)
返回值: double
说明:返回一个0到1范围内的随机数。如果指定种子seed,则会等到一个稳定的随机数序列
举例:
hive> select rand() from lxw_dual;
0.5577432776034763
hive> select rand() from lxw_dual;
0.6638336467363424
hive> select rand(100) from lxw_dual;
0.7220096548596434
hive> select rand(100) from lxw_dual;
0.7220096548596434
语法: exp(double a)
返回值: double
说明:返回自然对数e的a次方
举例:
hive> select exp(2) from lxw_dual;
7.38905609893065
自然对数函数: ln
语法: ln(double a)
返回值: double
说明:返回a的自然对数
举例:
hive> select ln(7.38905609893065) from lxw_dual;
2.0
语法: log10(double a)
返回值: double
说明:返回以10为底的a的对数
举例:
hive> select log10(100) from lxw_dual;
2.0
语法: log2(double a)
返回值: double
说明:返回以2为底的a的对数
举例:
hive> select log2(8) from lxw_dual;
3.0
语法: log(double base, double a)
返回值: double
说明:返回以base为底的a的对数
举例:
hive> select log(4,256) from lxw_dual;
4.0
语法: pow(double a, double p)
返回值: double
说明:返回a的p次幂
举例:
hive> select pow(2,4) from lxw_dual;
16.0
语法: power(double a, double p)
返回值: double
说明:返回a的p次幂,与pow功能相同
举例:
hive> select power(2,4) from lxw_dual;
16.0
语法: sqrt(double a)
返回值: double
说明:返回a的平方根
举例:
hive> select sqrt(16) from lxw_dual;
4.0
语法: bin(BIGINT a)
返回值: string
说明:返回a的二进制代码表示
举例:
hive> select bin(7) from lxw_dual;
111
语法: hex(BIGINT a)
返回值: string
说明:如果变量是int类型,那么返回a的十六进制表示;如果变量是string类型,则返回该字符串的十六进制表示
举例:
hive> select hex(17) from lxw_dual;
11
hive> select hex(‘abc’) from lxw_dual;
616263
语法: unhex(string a)
返回值: string
说明:返回该十六进制字符串所代码的字符串
举例:
hive> select unhex(‘616263’) from lxw_dual;
abc
hive> select unhex(‘11’) from lxw_dual;
-
hive> select unhex(616263) from lxw_dual;
abc
语法: conv(BIGINT num, int from_base, int to_base)
返回值: string
说明:将数值num从from_base进制转化到to_base进制
举例:
hive> select conv(17,10,16) from lxw_dual;
11
hive> select conv(17,10,2) from lxw_dual;
10001
语法: abs(double a) abs(int a)
返回值: double int
说明:返回数值a的绝对值
举例:
hive> select abs(-3.9) from lxw_dual;
3.9
hive> select abs(10.9) from lxw_dual;
10.9
语法: pmod(int a, int b),pmod(double a, double b)
返回值: int double
说明:返回正的a除以b的余数
举例:
hive> select pmod(9,4) from lxw_dual;
1
hive> select pmod(-9,4) from lxw_dual;
3
语法: sin(double a)
返回值: double
说明:返回a的正弦值
举例:
hive> select sin(0.8) from lxw_dual;
0.7173560908995228
语法: asin(double a)
返回值: double
说明:返回a的反正弦值
举例:
hive> select asin(0.7173560908995228) from lxw_dual;
0.8
语法: cos(double a)
返回值: double
说明:返回a的余弦值
举例:
hive> select cos(0.9) from lxw_dual;
0.6216099682706644
语法: acos(double a)
返回值: double
说明:返回a的反余弦值
举例:
hive> select acos(0.6216099682706644) from lxw_dual;
0.9
语法: positive(int a), positive(double a)
返回值: int double
说明:返回a
举例:
hive> select positive(-10) from lxw_dual;
-10
hive> select positive(12) from lxw_dual;
12
语法: negative(int a), negative(double a)
返回值: int double
说明:返回-a
举例:
hive> select negative(-5) from lxw_dual;
5
hive> select negative(8) from lxw_dual;
-8
语法: from_unixtime(bigint unixtime[, string format])
返回值: string
说明:转化UNIX时间戳(从1970-01-01 00:00:00 UTC到指定时间的秒数)到当前时区的时间格式
举例:
hive> select from_unixtime(1323308943,'yyyyMMdd') fromlxw_dual;
20111208
语法: unix_timestamp()
返回值: bigint
说明:获得当前时区的UNIX时间戳
举例:
hive> select unix_timestamp() from lxw_dual;
1323309615
语法: unix_timestamp(string date)
返回值: bigint
说明:转换格式为"yyyy-MM-ddHH:mm:ss"的日期到UNIX时间戳。如果转化失败,则返回0。
举例:
hive> select unix_timestamp('2011-12-07 13:01:03') from lxw_dual;
1323234063
语法: unix_timestamp(string date, string pattern)
返回值: bigint
说明:转换pattern格式的日期到UNIX时间戳。如果转化失败,则返回0。
举例:
hive> select unix_timestamp('20111207 13:01:03','yyyyMMddHH:mm:ss') from lxw_dual;
1323234063
语法: to_date(string timestamp)
返回值: string
说明:返回日期时间字段中的日期部分。
举例:
hive> select to_date('2011-12-08 10:03:01') from lxw_dual;
2011-12-08
语法: year(string date)
返回值: int
说明:返回日期中的年。
举例:
hive> select year('2011-12-08 10:03:01') from lxw_dual;
2011
hive> select year('2012-12-08') from lxw_dual;
2012
语法: month (string date)
返回值: int
说明:返回日期中的月份。
举例:
hive> select month('2011-12-08 10:03:01') from lxw_dual;
12
hive> select month('2011-08-08') from lxw_dual;
8
语法: day (string date)
返回值: int
说明:返回日期中的天。
举例:
hive> select day('2011-12-08 10:03:01') from lxw_dual;
8
hive> select day('2011-12-24') from lxw_dual;
24
语法: hour (string date)
返回值: int
说明:返回日期中的小时。
举例:
hive> select hour('2011-12-08 10:03:01') from lxw_dual;
10
语法: minute (string date)
返回值: int
说明:返回日期中的分钟。
举例:
hive> select minute('2011-12-08 10:03:01') from lxw_dual;
3
语法: second (string date)
返回值: int
说明:返回日期中的秒。
举例:
hive> select second('2011-12-08 10:03:01') from lxw_dual;
1
语法: weekofyear (string date)
返回值: int
说明:返回日期在当前的周数。
举例:
hive> select weekofyear('2011-12-08 10:03:01') from lxw_dual;
49
语法: datediff(string enddate, string startdate)
返回值: int
说明:返回结束日期减去开始日期的天数。
举例:
hive> select datediff('2012-12-08','2012-05-09') from lxw_dual;
213
语法: date_add(string startdate, int days)
返回值: string
说明:返回开始日期startdate增加days天后的日期。
举例:
hive> select date_add('2012-12-08',10) from lxw_dual;
2012-12-18
语法: date_sub (string startdate, int days)
返回值: string
说明:返回开始日期startdate减少days天后的日期。
举例:
hive> select date_sub('2012-12-08',10) from lxw_dual;
2012-11-28
语法: if(boolean testCondition, T valueTrue, T valueFalseOrNull)
返回值: T
说明: 当条件testCondition为TRUE时,返回valueTrue;否则返回valueFalseOrNull
举例:
hive> select if(1=2,100,200) from lxw_dual;
200
hive> select if(1=1,100,200) from lxw_dual;
100
语法: COALESCE(T v1, T v2,…)
返回值: T
说明: 返回参数中的第一个非空值;如果所有值都为NULL,那么返回NULL
举例:
hive> select COALESCE(null,'100','50′) from lxw_dual;
100
语法: CASE a WHEN b THEN c [WHEN d THEN e]* [ELSE f] END
返回值: T
说明:如果a等于b,那么返回c;如果a等于d,那么返回e;否则返回f
举例:
hive> Select case 100 when 50 then 'tom' when 100 then 'mary'else 'tim' end from lxw_dual;
mary
hive> Select case 200 when 50 then 'tom' when 100 then 'mary'else 'tim' end from lxw_dual;
tim
语法: CASE WHEN a THEN b [WHEN c THEN d]* [ELSE e] END
返回值: T
说明:如果a为TRUE,则返回b;如果c为TRUE,则返回d;否则返回e
举例:
hive> select case when 1=2 then 'tom' when 2=2 then 'mary' else'tim' end from lxw_dual;
mary
hive> select case when 1=1 then 'tom' when 2=2 then 'mary' else'tim' end from lxw_dual;
tom
语法: length(string A)
返回值: int
说明:返回字符串A的长度
举例:
hive> select length('abcedfg') from lxw_dual;
7
语法: reverse(string A)
返回值: string
说明:返回字符串A的反转结果
举例:
hive> select reverse(abcedfg’) from lxw_dual;
gfdecba
语法: concat(string A, string B…)
返回值: string
说明:返回输入字符串连接后的结果,支持任意个输入字符串
举例:
hive> select concat(‘abc’,'def’,'gh’) from lxw_dual;
abcdefgh
语法: concat_ws(string SEP, string A, string B…)
返回值: string
说明:返回输入字符串连接后的结果,SEP表示各个字符串间的分隔符
举例:
hive> select concat_ws(',','abc','def','gh') from lxw_dual;
abc,def,gh
语法: substr(string A, int start),substring(string A, int start)
返回值: string
说明:返回字符串A从start位置到结尾的字符串
举例:
hive> select substr('abcde',3) from lxw_dual;
cde
hive> select substring('abcde',3) from lxw_dual;
cde
hive> selectsubstr('abcde',-1) from lxw_dual; (和Oracle相同)
e
语法: substr(string A, int start, int len),substring(string A, intstart, int len)
返回值: string
说明:返回字符串A从start位置开始,长度为len的字符串
举例:
hive> select substr('abcde',3,2) from lxw_dual;
cd
hive> select substring('abcde',3,2) from lxw_dual;
cd
hive>select substring('abcde',-2,2) from lxw_dual;
de
语法: upper(string A) ucase(string A)
返回值: string
说明:返回字符串A的大写格式
举例:
hive> select upper('abSEd') from lxw_dual;
hive> select ucase('abSEd') from lxw_dual;
语法: lower(string A) lcase(string A)
返回值: string
说明:返回字符串A的小写格式
举例:
hive> select lower('abSEd') from lxw_dual;
absed
hive> select lcase('abSEd') from lxw_dual;
absed
语法: trim(string A)
返回值: string
说明:去除字符串两边的空格
举例:
hive> select trim(' abc ') from lxw_dual;
abc
语法: ltrim(string A)
返回值: string
说明:去除字符串左边的空格
举例:
hive> select ltrim(' abc ') from lxw_dual;
abc
语法: rtrim(string A)
返回值: string
说明:去除字符串右边的空格
举例:
hive> select rtrim(' abc ') from lxw_dual;
abc
语法: regexp_replace(string A, string B, string C)
返回值: string
说明:将字符串A中的符合java正则表达式B的部分替换为C。注意,在有些情况下要使用转义字符,类似Oracle中的regexp_replace函数。
举例:
hive> select regexp_replace('foobar', 'oo|ar', '') from lxw_dual;
fb
语法: regexp_extract(string subject, string pattern, int index)
返回值: string
说明:将字符串subject按照pattern正则表达式的规则拆分,返回index指定的字符。
举例:
hive> select regexp_extract('foothebar', 'foo(.*?)(bar)', 1) fromlxw_dual;
the
hive> select regexp_extract('foothebar', 'foo(.*?)(bar)', 2) fromlxw_dual;
bar
hive> select regexp_extract('foothebar', 'foo(.*?)(bar)', 0) fromlxw_dual;
foothebar
注意,在有些情况下要使用转义字符,下面的等号要用双竖线转义,这是java正则表达式的规则。
select data_field,
regexp_extract(data_field,'.*?bgStart\\=([^&]+)',1) as aaa,
regexp_extract(data_field,'.*?contentLoaded_headStart\\=([^&]+)',1) as bbb,
regexp_extract(data_field,'.*?AppLoad2Req\\=([^&]+)',1) as ccc
from pt_nginx_loginlog_st
where pt = '2012-03-26'limit 2;
语法: parse_url(string urlString, string partToExtract [, stringkeyToExtract])
返回值: string
说明:返回URL中指定的部分。partToExtract的有效值为:HOST, PATH, QUERY, REF, PROTOCOL, AUTHORITY, FILE, and USERINFO.
举例:
hive> selectparse_url('http://facebook.com/path1/p.PHP?k1=v1&k2=v2#Ref1', 'HOST') fromlxw_dual;
facebook.com
hive> selectparse_url('http://facebook.com/path1/p.PHP?k1=v1&k2=v2#Ref1', 'QUERY','k1') from lxw_dual;
v1
语法: get_json_object(string json_string, string path)
返回值: string
说明:解析json的字符串json_string,返回path指定的内容。如果输入的json字符串无效,那么返回NULL。
举例:
hive> select get_json_object('{"store":
> {"fruit":\[{"weight":8,"type":"apple"},{"weight":9,"type":"pear"}],
> "bicycle":{"price":19.95,"color":"red"}
> },
> "email":"amy@only_for_json_udf_test.NET",
> "owner":"amy"
> }
> ','$.owner') from lxw_dual;
amy
语法: space(int n)
返回值: string
说明:返回长度为n的字符串
举例:
hive> select space(10) from lxw_dual;
hive> select length(space(10)) from lxw_dual;
10
语法: repeat(string str, int n)
返回值: string
说明:返回重复n次后的str字符串
举例:
hive> select repeat('abc',5) from lxw_dual;
abcabcabcabcabc
语法: ascii(string str)
返回值: int
说明:返回字符串str第一个字符的ascii码
举例:
hive> select ascii('abcde') from lxw_dual;
97
语法: lpad(string str, int len, string pad)
返回值: string
说明:将str进行用pad进行左补足到len位
举例:
hive> select lpad('abc',10,'td') from lxw_dual;
tdtdtdtabc
注意:与GP,oracle不同,pad不能默认
语法: rpad(string str, int len, string pad)
返回值: string
说明:将str进行用pad进行右补足到len位
举例:
hive> select rpad('abc',10,'td') from lxw_dual;
abctdtdtdt
语法: split(string str, stringpat)
返回值: array
说明:按照pat字符串分割str,会返回分割后的字符串数组
举例:
hive> select split('abtcdtef','t') from lxw_dual;
["ab","cd","ef"]
语法: find_in_set(string str, string strList)
返回值: int
说明:返回str在strlist第一次出现的位置,strlist是用逗号分割的字符串。如果没有找该str字符,则返回0
举例:
hive> select find_in_set('ab','ef,ab,de') from lxw_dual;
2
hive> select find_in_set('at','ef,ab,de') from lxw_dual;
0
语法: count(*), count(expr), count(DISTINCT expr[, expr_.])
返回值: int
说明: count(*)统计检索出的行的个数,包括NULL值的行;count(expr)返回指定字段的非空值的个数;count(DISTINCTexpr[, expr_.])返回指定字段的不同的非空值的个数
举例:
hive> select count(*) from lxw_dual;
20
hive> select count(distinct t) from lxw_dual;
10
语法: sum(col), sum(DISTINCT col)
返回值: double
说明: sum(col)统计结果集中col的相加的结果;sum(DISTINCT col)统计结果中col不同值相加的结果
举例:
hive> select sum(t) from lxw_dual;
100
hive> select sum(distinct t) from lxw_dual;
70
语法: avg(col), avg(DISTINCT col)
返回值: double
说明: avg(col)统计结果集中col的平均值;avg(DISTINCT col)统计结果中col不同值相加的平均值
举例:
hive> select avg(t) from lxw_dual;
50
hive> select avg (distinct t) from lxw_dual;
30
语法: min(col)
返回值: double
说明:统计结果集中col字段的最小值
举例:
hive> select min(t) from lxw_dual;
20
语法: maxcol)
返回值: double
说明:统计结果集中col字段的最大值
举例:
hive> select max(t) from lxw_dual;
120
语法: var_pop(col)
返回值: double
说明:统计结果集中col非空集合的总体变量(忽略null)
举例:
语法: var_samp (col)
返回值: double
说明:统计结果集中col非空集合的样本变量(忽略null)
举例:
语法: stddev_pop(col)
返回值: double
说明:该函数计算总体标准偏离,并返回总体变量的平方根,其返回值与VAR_POP函数的平方根相同
举例:
语法: stddev_samp (col)
返回值: double
说明:该函数计算样本标准偏离
举例:
语法: percentile(BIGINT col, p)
返回值: double
说明:求准确的第pth个百分位数,p必须介于0和1之间,但是col字段目前只支持整数,不支持浮点数类型
举例:
语法: percentile(BIGINT col, array(p1 [, p2]…))
返回值: array
说明:功能和上述类似,之后后面可以输入多个百分位数,返回类型也为array
举例:
select percentile(score,<0.2,0.4>) from lxw_dual;取0.2,0.4位置的数据
语法: percentile_approx(DOUBLE col, p [, B])
返回值: double
说明:求近似的第pth个百分位数,p必须介于0和1之间,返回类型为double,但是col字段支持浮点类型。参数B控制内存消耗的近似精度,B越大,结果的准确度越高。默认为10,000。当col字段中的distinct值的个数小于B时,结果为准确的百分位数
举例:
语法: percentile_approx(DOUBLE col, array(p1 [, p2]…) [, B])
返回值: array
说明:功能和上述类似,之后后面可以输入多个百分位数,返回类型也为array
举例:
语法: histogram_numeric(col, b)
返回值: array
说明:以b为基准计算col的直方图信息。
举例:
hive> select histogram_numeric(100,5) from lxw_dual;
[{"x":100.0,"y":1.0}]
语法: map (key1, value1, key2, value2,…)
说明:根据输入的key和value对构建map类型
举例:
hive> Create table lxw_test as select map('100','tom','200','mary')as t from lxw_dual;
hive> describe lxw_test;
t map
hive> select t from lxw_test;
{"100":"tom","200":"mary"}
语法: struct(val1, val2, val3,…)
说明:根据输入的参数构建结构体struct类型
举例:
hive> create table lxw_test as select struct('tom','mary','tim')as t from lxw_dual;
hive> describe lxw_test;
t struct
hive> select t from lxw_test;
{"col1":"tom","col2":"mary","col3":"tim"}
语法: array(val1, val2,…)
说明:根据输入的参数构建数组array类型
举例:
hive> create table lxw_test as selectarray("tom","mary","tim") as t from lxw_dual;
hive> describe lxw_test;
t array
hive> select t from lxw_test;
["tom","mary","tim"]
语法: A[n]
操作类型: A为array类型,n为int类型
说明:返回数组A中的第n个变量值。数组的起始下标为0。比如,A是个值为['foo', 'bar']的数组类型,那么A[0]将返回'foo',而A[1]将返回'bar'
举例:
hive> create table lxw_test as selectarray("tom","mary","tim") as t from lxw_dual;
hive> select t[0],t[1],t[2] from lxw_test;
tom mary tim
语法: M[key]
操作类型: M为map类型,key为map中的key值
说明:返回map类型M中,key值为指定值的value值。比如,M是值为{'f' -> 'foo', 'b'-> 'bar', 'all' -> 'foobar'}的map类型,那么M['all']将会返回'foobar'
举例:
hive> Create table lxw_test as selectmap('100','tom','200','mary') as t from lxw_dual;
hive> select t['200'],t['100'] from lxw_test;
mary tom
语法: S.x
操作类型: S为struct类型
说明:返回结构体S中的x字段。比如,对于结构体struct foobar {int foo, int bar},foobar.foo返回结构体中的foo字段
举例:
hive> create table lxw_test as select struct('tom','mary','tim')as t from lxw_dual;
hive> describe lxw_test;
t struct
hive> select t.col1,t.col3 from lxw_test;
tom tim
语法: size(Map
返回值: int
说明:返回map类型的长度
举例:
hive> select size(map('100','tom','101','mary')) from lxw_dual;
2
语法: size(Array
返回值: int
说明:返回array类型的长度
举例:
hive> select size(array('100','101','102','103')) from lxw_dual;
4
类型转换函数: cast
语法: cast(expr as
返回值: Expected "=" to follow "type"
说明:返回array类型的长度
举例:
hive> select cast(1 as bigint) from lxw_dual;
1
QQ技术交流群:513848061