HADOOP hive 安装问题及理解及数据导入操作

关于hive的安装请参考网上其他文章如:https://blog.csdn.net/Lee20093905/article/details/78871336,https://blog.csdn.net/vpqtxzmzezeqjj9977/article/details/80483019,https://www.cnblogs.com/jchubby/p/5449350.html,https://blog.csdn.net/pengjunlee/article/details/81607890,https://blog.csdn.net/Dax1n/article/details/58284201,https://blog.csdn.net/zhongqi2513/article/details/69388072

hive下载https://archive.apache.org/dist/hive/hive-2.3.4/

hive集成在hadoop 必须先安装hadoop并能够成功运行hadoop

在hadoop集群中,hive只用部署在一台节点也可以是master上即可。

hive通过执行sql命令,即可通知hadoop进行mapreduce,最终结果还是存储在hdfs上。

若启动./bin/hive 命令行后,无法进行sql命令,可能是没有启动Hive 的 Metastore Server服务进程,执行如下命令:

./hive --service metastore &

hive 必须使用其他数据库(如mysql)存储元数据,数据库中并不存储真正的数据,只存储表结构,及表对应的真正的数据结构,hdfs位置等等,真正的表对应的文件数据存储在hdfs上,如用hive创建一个表,必须指明表中字段在文件中每一行的分隔符。具体可以参考下面:

hive安装后,需要先初始化一下mysql,会自动创建几十张表,这几十张表就是元数据表

然后创建一个表

表中有三个字段,id,name,tel。并且定义在hdfs文件中的每一行数据的分隔符为'\t'。

create table test(id int, name string,tel string)
    > partitioned by
    > (age int)
    > ROW FORMAT DELIMITED
    > FIELDS TERMINATED BY '\t'
    > STORED AS TEXTFILE;

对应的hdfs文件,每一行用'\t'分割数据,这样就对应到hive的表字段,每一行对应hive表的每一样

1    lhy    12222222222
2    lhy1    1383333333

当执行 select * from test where name='lhy' 即可执行mapreduce,可通过insert table b select * from test where name='lhy' 把mapreduce的结果存储起来,结果在表名对应的hdfs目录下

如果数据文件需要导入hive表(最终还是会在表对应的hdfs目录里),可以通过以下几种方法导入(以下为网上内容):

 

Hive的几种常见的数据导入方式
这里介绍四种:
(1)、从本地文件系统中导入数据到Hive表;
(2)、从HDFS上导入数据到Hive表;
(3)、从别的表中查询出相应的数据并导入到Hive表中;
(4)、在创建表的时候通过从别的表中查询出相应的记录并插入到所创建的表中。

 

一、从本地文件系统中导入数据到Hive表

 

先在Hive里面创建好表,如下:

  1. hive> create table wyp
  2.     > (id int, name string,
  3.     > age int, tel string)
  4.     > ROW FORMAT DELIMITED
  5.     > FIELDS TERMINATED BY '\t'
  6.     > STORED AS TEXTFILE;
  7. OK
  8. Time taken: 2.832 seconds

本地文件系统里面有个/home/wyp/wyp.txt文件,内容如下:

  1. [wyp@master ~]$ cat wyp.txt
  2. 1       wyp     25      13188888888888
  3. 2       test    30      13888888888888
  4. 3       zs      34      899314121


wyp.txt文件中的数据列之间是使用\t分割的,可以通过下面的语句将这个文件里面的数据导入到wyp表里面,操作如下:

  1. hive> load data local inpath 'wyp.txt' into table wyp;
  2. Copying data from file:/home/wyp/wyp.txt
  3. Copying file: file:/home/wyp/wyp.txt
  4. Loading data to table default.wyp
  5. Table default.wyp stats:
  6. [num_partitions: 0, num_files: 1, num_rows: 0, total_size: 67]
  7. OK
  8. Time taken: 5.967 seconds

可以到wyp表的数据目录下查看,如下命令:
 

  1. hive> dfs -ls /user/hive/warehouse/wyp ;
  2. Found 1 items
  3. -rw-r--r--3 wyp supergroup 67 2014-02-19 18:23 /hive/warehouse/wyp/wyp.txt


需要注意的是:Hive并不支持INSERT INTO …. VALUES形式的语句。
 

二、HDFS上导入数据到Hive表

 

  从本地文件系统中将数据导入到Hive表的过程中,其实是先将数据临时复制到HDFS的一个目录下(典型的情况是复制到上传用户的HDFS home目录下,比如/home/wyp/),然后再将数据从那个临时目录下移动(注意,这里说的是移动,不是复制!)到对应的Hive表的数据目录里面。既然如此,那么Hive肯定支持将数据直接从HDFS上的一个目录移动到相应Hive表的数据目录下,假设有下面这个文件/home/wyp/add.txt,具体的操作如下:

  1. [wyp@master /home/q/hadoop-2.2.0]$ bin/hadoop fs -cat /home/wyp/add.txt
  2. 5       wyp1    23      131212121212
  3. 6       wyp2    24      134535353535
  4. 7       wyp3    25      132453535353
  5. 8       wyp4    26      154243434355


这个文件是存放在HDFS上/home/wyp目录(和一中提到的不同,一中提到的文件是存放在本地文件系统上)里面,我们可以通过下面的命令将这个文件里面的内容导入到Hive表中,具体操作如下:
 

  1. hive> load data inpath '/home/wyp/add.txt' into table wyp;
  2. Loading data to table default.wyp
  3. Table default.wyp stats:
  4. [num_partitions: 0, num_files: 2, num_rows: 0, total_size: 215]
  5. OK
  6. Time taken: 0.47 seconds
  7.  
  8. hive> select * from wyp;
  9. OK
  10. 5       wyp1    23      131212121212
  11. 6       wyp2    24      134535353535
  12. 7       wyp3    25      132453535353
  13. 8       wyp4    26      154243434355
  14. 1       wyp     25      13188888888888
  15. 2       test    30      13888888888888
  16. 3       zs      34      899314121
  17. Time taken: 0.096 seconds, Fetched: 7 row(s)


从上面的执行结果我们可以看到,数据的确导入到wyp表中了!请注意load data inpath ‘/home/wyp/add.txt’ into table wyp;里面是没有local这个单词的,这个是和一中的区别。
 

三、从别的表中查询出相应的数据并导入到Hive表中

 

假设Hive中有test表,其建表语句如下所示:
 

  1. hive> create table test(
  2.     > id int, name string
  3.     > ,tel string)
  4.     > partitioned by
  5.     > (age int)
  6.     > ROW FORMAT DELIMITED
  7.     > FIELDS TERMINATED BY '\t'
  8.     > STORED AS TEXTFILE;
  9. OK
  10. Time taken: 0.261 seconds


大体和wyp表的建表语句类似,只不过test表里面用age作为了分区字段。对于分区,这里在做解释一下:

分区:在Hive中,表的每一个分区对应表下的相应目录,所有分区的数据都是存储在对应的目录中。比如wyp表有dt和city两个分区,则对应dt=20131218,city=BJ对应表的目录为/user/hive/warehouse/dt=20131218/city=BJ,所有属于这个分区的数据都存放在这个目录中。


下面语句就是将wyp表中的查询结果并插入到test表中:

  1. hive> insert into table test
  2.     > partition (age='25')
  3.     > select id, name, tel
  4.     > from wyp;


通过上面的输出,我们可以看到从wyp表中查询出来的东西已经成功插入到test表中去了!如果目标表(test)中不存在分区字段,可以去掉partition (age=’25′)语句。当然,我们也可以在select语句里面通过使用分区值来动态指明分区:

  1. hive> set hive.exec.dynamic.partition.mode=nonstrict;
  2. hive> insert into table test
  3.     > partition (age)
  4.     > select id, name,
  5.     > tel, age
  6.     > from wyp;


当然,Hive也支持insert overwrite方式来插入数据,执行完这条语句的时候,相应数据目录下的数据将会被覆盖!而insert into则不会,注意两者之间的区别。例子如下:
 

  1. hive> insert overwrite table test
  2.     > PARTITION (age)
  3.     > select id, name, tel, age
  4.     > from wyp;


Hive还支持多表插入

  1. hive> show create table test3;
  2. OK
  3. CREATE  TABLE test3(
  4.   id int,
  5.   name string)
  6. Time taken: 0.277 seconds, Fetched: 18 row(s)
  7.  
  8. hive> from wyp
  9.     > insert into table test
  10.     > partition(age)
  11.     > select id, name, tel, age
  12.     > insert into table test3
  13.     > select id, name
  14.     > where age>25;

可以在同一个查询中使用多个insert子句,这样的好处是我们只需要扫描一遍源表就可以生成多个不相交的输出
 

四、在创建表的时候通过从别的表中查询出相应的记录并插入到所创建的表中

 

在实际情况中,表的输出结果可能太多,不适于显示在控制台上,这时候,将Hive的查询输出结果直接存在一个新的表中是非常方便的,我们称这种情况为CTAS(create table .. as select)如下:
 

  1. hive> create table test4
  2.     > as
  3.     > select id, name, tel
  4.     > from wyp;

 

数据就插入到test4表中去了,CTAS操作是原子的,因此如果select查询由于某种原因而失败,新表是不会创建的!

你可能感兴趣的:(HADOOP hive 安装问题及理解及数据导入操作)