(四)Hive的数据类型

Hive的内置数据类型分为两大类:1、基础数据类型;2、复杂数据类型。

一、基础数据类型包括:

(四)Hive的数据类型_第1张图片

 注:

binary:二进制类型。         

timestamp:带可选的纳秒级精度UNIX  timestamp。timestamp与时区无关,存储为UNIX纪元的偏移量。Hive提供了用于               timestamp和时区相互转换的便利UDF:to_utc_timestamp和 from_utc_timestamp。 Timestamp类型可以使用所有的日期时间UDF,如month、day、year等。文本文件中的Timestamp必须使用yyyy-mm-dd hh:mm:ss[.f...]的格式,如果使用其它格式,将它们声明为合适的类型(INT、FLOAT、STRING等)并使用UDF将它们转换为 Timestamp。其支持的类型为:

         整数类型:转换为秒级的UNIX时间戳。

         浮点数类型:转换为带小数精度的UNIX时间戳。

         字符串类型:适合java.sql.Timestamp格式"YYYY-MM-DD HH:MM:SS.fffffffff"(9位小数精度)。

 Date:描述了特定的年月日,以YYYY-­MM-­DD格式表示,例如2014-05-29。仅可与Date、timestamp和String相互转化。

(四)Hive的数据类型_第2张图片

二、复杂数据类型包括:ARRAY、Map、struct、union,这些复杂类型是由基础类型构成的。

 ARRAY:ARRAY类型是由一系列相同数据类型的元素组成,这些元素可以通过下标来访问。比如有一个ARRAY类型的变量fruits,它是由 ['apple','orange','mango']组成,那么我们可以通过fruits[1]来访问元素orange,因为ARRAY类型的下标是从 0开始的;

 MAP:MAP包含key->value键值对,可以通过key来访问元素。比如”userlist”是一个map类型,其中username是 key,password是value;那么我们可以通过userlist['username']来得到这个用户对应的password;

 STRUCT:STRUCT可以包含不同数据类型的元素。这些元素可以通过”点语法”的方式来得到所需要的元素,比如user是一个STRUCT类型,那么可以通过user.address得到这个用户的地址。

 UNION:UNIONTYPE,他是从Hive 0.7.0开始支持的。

复杂数据类型的使用

1. Array的使用

创建数据库表,以array作为数据类型

create table  person(name string,work_locations array)

ROW FORMAT DELIMITED

FIELDS TERMINATED BY '\t'

COLLECTION ITEMS TERMINATED BY ',';

数据

biansutao beijing,shanghai,tianjin,hangzhou

linan changchu,chengdu,wuhan

入库数据

LOAD DATA LOCAL INPATH '/home/hadoop/person.txt' OVERWRITE INTO TABLE person;

查询

hive> select * from person;

biansutao       ["beijing","shanghai","tianjin","hangzhou"]

linan   ["changchu","chengdu","wuhan"]

Time taken: 0.355 seconds


hive> select name from person;

linan

biansutao

Time taken: 12.397 seconds


hive> select work_locations[0] from person;

changchu

beijing

Time taken: 13.214 seconds


hive> select work_locations from person;  


["changchu","chengdu","wuhan"]

["beijing","shanghai","tianjin","hangzhou"]

Time taken: 13.755 seconds


hive> select work_locations[3] from person;


NULL

hangzhou

Time taken: 12.722 seconds


hive> select work_locations[4] from person;


NULL

NULL

Time taken: 15.958 seconds


2. Map 的使用

创建数据库表

create table score(name string, score map)

ROW FORMAT DELIMITED

FIELDS TERMINATED BY '\t'

COLLECTION ITEMS TERMINATED BY ','

MAP KEYS TERMINATED BY ':';


要入库的数据

biansutao '数学':80,'语文':89,'英语':95

jobs '语文':60,'数学':80,'英语':99


入库数据

LOAD DATA LOCAL INPATH '/home/hadoop/score.txt' OVERWRITE INTO TABLE score;


查询

hive> select * from score;


biansutao       {"数学":80,"语文":89,"英语":95}

jobs    {"语文":60,"数学":80,"英语":99}

Time taken: 0.665 seconds


hive> select name from score;


jobs

biansutao

Time taken: 19.778 seconds


hive> select t.score from score t;



{"语文":60,"数学":80,"英语":99}

{"数学":80,"语文":89,"英语":95}

Time taken: 19.353 seconds


hive> select t.score['语文'] from score t;


60

89

Time taken: 13.054 seconds


hive> select t.score['英语'] from score t;


99

95

Time taken: 13.769 seconds


3 Struct 的使用


创建数据表


CREATE TABLE test(id int,course struct)

ROW FORMAT DELIMITED

FIELDS TERMINATED BY '\t'

COLLECTION ITEMS TERMINATED BY ',';


数据

1 english,80

2 math,89

3 chinese,95


入库

LOAD DATA LOCAL INPATH '/home/hadoop/test.txt' OVERWRITE INTO TABLE test;



查询



hive> select * from test;

OK

1       {"course":"english","score":80}

2       {"course":"math","score":89}

3       {"course":"chinese","score":95}

Time taken: 0.275 seconds


hive> select course from test;


{"course":"english","score":80}

{"course":"math","score":89}

{"course":"chinese","score":95}

Time taken: 44.968 seconds


select t.course.course from test t;


english

math

chinese

Time taken: 15.827 seconds


hive> select t.course.score from test t;


80

89

95

Time taken: 13.235 seconds


4. 数据组合 (不支持组合的复杂数据类型)


LOAD DATA LOCAL INPATH '/home/hadoop/test.txt' OVERWRITE INTO TABLE test;




create table test1(id int,a MAP>)

row format delimited fields terminated by '\t'

collection items terminated by ','

MAP KEYS TERMINATED BY ':';


1 english:80,90,70

2 math:89,78,86

3 chinese:99,100,82


LOAD DATA LOCAL INPATH '/home/hadoop/test1.txt' OVERWRITE INTO TABLE test1;

你可能感兴趣的:((四)Hive的数据类型)