hive2.1.1安装部署

转自:http://www.cnblogs.com/hmy-blog/p/6506417.html

中间出了个问题。因为我的mysql开启了日志,所以报错。我修改hive的配置 datanucleus.transactionIsolation 为REPEATABLE-READ,结果提示不支持,

The datastore doesnt support the selected transaction isolation level "REPEATABLE-READ"

我只好还原配置。修改数据库的配置binlog_format           = MIXED    。可行。

参考:http://www.cnblogs.com/langtianya/p/5504774.html

mysql复制主要有三种方式:基于SQL语句的复制(statement-based replication, SBR),基于行的复制(row-based replication, RBR),混合模式复制(mixed-based replication, MBR)。对应的,binlog的格式也有三种:STATEMENT,ROW,MIXED。

① STATEMENT模式(SBR)

每一条会修改数据的sql语句会记录到binlog中。优点是并不需要记录每一条sql语句和每一行的数据变化,减少了binlog日志量,节约IO,提高性能。缺点是在某些情况下会导致master-slave中的数据不一致(如sleep()函数, last_insert_id(),以及user-defined functions(udf)等会出现问题)

② ROW模式(RBR)

不记录每条sql语句的上下文信息,仅需记录哪条数据被修改了,修改成什么样了。而且不会出现某些特定情况下的存储过程、或function、或trigger的调用和触发无法被正确复制的问题。缺点是会产生大量的日志,尤其是alter table的时候会让日志暴涨。

③ MIXED模式(MBR)

以上两种模式的混合使用,一般的复制使用STATEMENT模式保存binlog,对于STATEMENT模式无法复制的操作使用ROW模式保存binlog,MySQL会根据执行的SQL语句选择日志保存方式。



一、Hive 运行模式

 

与 Hadoop 类似,Hive 也有 3 种运行模式:

1. 内嵌模式

将元数据保存在本地内嵌的 Derby 数据库中,这是使用 Hive 最简单的方式。但是这种方式缺点也比较明显,因为一个内嵌的 Derby 数据库每次只能访问一个数据文件,这也就意味着它不支持多会话连接。

2. 本地模式

这种模式是将元数据保存在本地独立的数据库中(一般是 MySQL),这用就可以支持多会话和多用户连接了。

3. 远程模式

此模式应用于 Hive 客户端较多的情况。把 MySQL 数据库独立出来,将元数据保存在远端独立的 MySQL 服务中,避免了在每个客户端都安装 MySQL 服务从而造成冗余浪费的情况。

二、下载安装 Hive

 

http://hive.apache.org/downloads.html

tar -xzvf apache-hive-2.1.1-bin.tar.gz    ##解压

三、配置系统环境变量
修改 /etc/profile 文件  vi /etc/profile 来修改(root用户操作):
[html]  view plain  copy
 
 
  1. 设置 Hive环境变量  
  2. # Hive environment  
  3. export HIVE_HOME=/home/hadoop/cloud/apache-hive-2.1.1-bin  
  4. export PATH=$HIVE_HOME/bin:$HIVE_HOME/conf:$PATH  
[html]  view plain  copy
 
 
  1. 使环境变量生效:  
  2. source /etc/profile  


四、内嵌模式

(1)修改 Hive 配置文件

$HIVE_HOME/conf 对应的是 Hive 的配置文件路径,类似于之前学习的Hbase, 该路径下的 hive-site.xml 是 Hive 工程的配置文件。默认情况下,该文件并不存在,我们需要拷贝它的模版来实现:

[html]  view plain  copy
 
 
  1. cp hive-default.xml.template hive-site.xml  


hive-site.xml 的主要配置有:

  • hive.metastore.warehouse.dir
    该参数指定了 Hive 的数据存储目录,默认位置在 HDFS 上面的 /user/hive/warehouse 路径下。

  • hive.exec.scratchdir
    该参数指定了 Hive 的数据临时文件目录,默认位置为 HDFS 上面的 /tmp/hive 路径下。

同时我们还要修改 Hive 目录下 /conf/hive-env.sh 文件(请根据自己的实际路径修改),该文件默认也不存在,同样是拷贝它的模版来修改:
cp hive-env.sh.template  hive-env.sh
[html]  view plain  copy
 
 
  1. # Set HADOOP_HOME to point to a specific hadoop install directory  
  2. HADOOP_HOME=/home/hadoop/cloud/hadoop-2.7.3  
  3.   
  4. # Hive Configuration Directory can be controlled by:  
  5. export HIVE_CONF_DIR=/home/hadoop/cloud/apache-hive-2.1.1-bin/conf  
  6.   
  7. # Folder containing extra ibraries required for hive compilation/execution can be controlled by:  
  8. export HIVE_AUX_JARS_PATH=/home/hadoop/cloud/apache-hive-2.1.1-bin/lib  

(2)创建必要目录


前面我们看到 hive-site.xml 文件中有两个重要的路径,切换到 hadoop 用户下查看 HDFS 是否有这些路径:
[html]  view plain  copy
 
 
  1. hadoop fs -ls /  
没有发现上面提到的路径,因此我们需要自己新建这些目录,并且给它们赋予用户写(W)权限。
[html]  view plain  copy
 
 
  1. $HADOOP_HOME/bin/hadoop fs -mkdir -p /user/hive/warehouse  
  2. $HADOOP_HOME/bin/hadoop fs -mkdir -p /tmp/hive/  
  3. hadoop fs -chmod 777 /user/hive/warehouse  
  4. hadoop fs -chmod 777 /tmp/hive  

检查是否新建成功 hadoop fs -ls / 以及 hadoop fs -ls /user/hive/ :

(3)修改 io.tmpdir 路径

同时,要修改 hive-site.xml 中所有包含 ${system:java.io.tmpdir} 字段的 value 即路径(vim下 / 表示搜索,后面跟你的关键词,比如搜索 hello,则为 /hello , 再回车即可),你可以自己新建一个目录来替换它,例如 /home/Hadoop/cloud/apache-hive-2.1.1-bin/iotmp

[html]  view plain  copy
 
 
  1. mkdir /home/hadoop/cloud/apache-hive-2.1.1-bin/iotmp  
  2. chmod 777 /home/hadoop/cloud/apache-hive-2.1.1-bin/iotmp  
  3. 把hive-site.xml 中所有包含 ${system:Java.io.tmpdir}替换成/home/hadoop/cloud/apache-hive-2.1.1-bin/iotmp  
全局替换命令 先按Esc键  再同时按shift+:把以下替换命令粘贴按回车即可全局替换
[html]  view plain  copy
 
 
  1. %s#${system:java.io.tmpdir}#/home/hadoop/cloud/apache-hive-2.1.1-bin/iotmp#g  

(4)运行 Hive
[html]  view plain  copy
 
 
  1. ./bin/hive  
报错

解决办法:./bin/schematool -initSchema -dbType derby

报错

解决方法:删除/home/hadoop/cloud/apache-hive-2.1.1-bin目录下 rm -rf metastore_db/ 在初始化:./bin/schematool -initSchema -dbType derby
重新运行

./bin/hive

报错

/tem/hive 没写的权限

 

Hive本身自带一个数据库,但是有弊端,hive本身数据库,每次只允许一个用户登录

mysql安装:http://blog.csdn.net/u014695188/article/details/51532410

 

设置mysql关联hive

修改配置文件

### 创建hive-site.xml文件 
在hive/conf/目录下创建hive-site.xml文件

 

 

[html]  view plain  copy
 
 
  1. xml version="1.0" encoding="UTF-8" standalone="no"?>  
  2. xml-stylesheet type="text/xsl" href="configuration.xsl"?>  
  3. <configuration>  
  4.    <property>  
  5.         <name>javax.jdo.option.ConnectionURLname>  
  6.         <value>jdbc:mysql://192.168.169.134:3306/hive?createDatabaseIfNotExist=truevalue>  
  7.     property>  
  8.     <property>  
  9.         <name>javax.jdo.option.ConnectionDriverNamename>  
  10.         <value>com.mysql.jdbc.Drivervalue>  
  11.     property>  
  12.     <property>  
  13.         <name>javax.jdo.option.ConnectionUserNamename>  
  14.         <value>rootvalue>  
  15.     property>  
  16.     <property>  
  17.         <name>javax.jdo.option.ConnectionPasswordname>  
  18.         <value>123456value>  
  19.     property>  
  20.     <property>    
  21.    <name>hive.metastore.schema.verificationname>    
  22.    <value>falsevalue>    
  23.     <description>    
  24.     Enforce metastore schema version consistency.    
  25.     True: Verify that version information stored in metastore matches with one from Hive jars.  Also disable automatic    
  26.           schema migration attempt. Users are required to manully migrate schema after Hive upgrade which ensures    
  27.           proper metastore schema migration. (Default)    
  28.     False: Warn if the version information stored in metastore doesn't match with one from in Hive jars.    
  29.     description>    
  30.  property>   
  31. configuration>  

报错:Caused by: MetaException(message:Version information not found in metastore. )

 

解决:hive-site.xml加入

 

[html]  view plain  copy
 
 
  1. <property>    
  2.    <name>hive.metastore.schema.verificationname>    
  3.    <value>falsevalue>    
  4.     <description>    
  5.     Enforce metastore schema version consistency.    
  6.     True: Verify that version information stored in metastore matches with one from Hive jars.  Also disable automatic    
  7.           schema migration attempt. Users are required to manully migrate schema after Hive upgrade which ensures    
  8.           proper metastore schema migration. (Default)    
  9.     False: Warn if the version information stored in metastore doesn't match with one from in Hive jars.    
  10.     description>    
  11.  property>   



 

报错:缺少mysql jar包

解决:将其(如mysql-connector-Java-5.1.15-bin.jar)拷贝到$HIVE_HOME/lib下即可。

报错:

 

[html]  view plain  copy
 
 
  1. Exception in thread "main" java.lang.RuntimeException: Hive metastore database is not initialized.   
  2.     Please use schematool (e.g. ./schematool -initSchema -dbType ...) to create the schema. If needed,   
  3.     don't forget to include the option to auto-create the underlying database in your JDBC connection string (e.g. ?createDatabaseIfNotExist=true for mysql)  

解决:

[html]  view plain  copy
 
 
  1. #数据库的初始化。  
  2.      bin/schematool -initSchema -dbType mysql  

启动:

[html]  view plain  copy
 
 
  1. bin/hive  


启动后mysql 多了hive 数据库

 

 

测试

 

创建数据库

create database db_hive_test;
 

创建测试表

 

use db_hive_test;

create table student(id int,name string) row format delimited fields terminated by '\t';



 

加载数据到表中

 

新建student.txt 文件写入数据(id,name 按tab键分隔)

vi student.txt

 

[html]  view plain  copy
 
 
  1. 1001    zhangsan  
  2. 1002    lisi  
  3. 1003    wangwu  
  4. 1004    zhaoli  

load data local inpath '/home/hadoop/student.txt' into table  db_hive_test.student

 

 

查询表信息

select * from student;

 

 

查看表的详细信息

desc formatted student;

 

通过ui页面查看创建的数据位置

http://192.168.169.132:50070/explorer.html#/user/hive/warehouse/db_hive_test.db

通过Mysql查看创建的表

 

查看hive的函数 

show functions;

查看函数详细信息 

desc function sum; 
desc function extended


你可能感兴趣的:(hadoop)