第一步,下载并解压Hive的tar文件:
引用
# chmod +x hive-0.8.1.tar.gz
# tar xzvf hive-0.8.1.tar.gz
# cp -rf hive-0.8.1 /opt/bigdata
第二步,配置Hive:
引用
# cd /opt/bigdata/hive-0.8.1
# ll
![CentOS 6.4 hadoop集成Hive_第1张图片](http1://img.it610.com/image/product/5a428f5caec745ffb6524c5257f65e1e.jpg)
1、先配置Hive_HOME:
引用
# vi /etc/profile
export HIVE_HOME=/opt/bigdata/hive-0.8.1
export export PATH=%HIVE_HOME%/bin:$PATH
# source /etc/profile
2、进入hive/conf,依据hive-env.sh.template,创建并配置hive-env.sh:
引用
# cp hive-env.sh.template hive-env.sh
# vi hive-env.sh
export HIVE_CONF_DIR=/opt/bigdata/hive-0.8.1/conf //设置hive配置文件的路径
export HADOOP_HOME=/opt/bigdata/hadoop-1.0.3 //配置hadoop的路径
![CentOS 6.4 hadoop集成Hive_第2张图片](http1://img.it610.com/image/product/184d07c816f94d979337cedd65c873f5.jpg)
3、到了这里,额哦们先来在mysql中给Hive配置一个数据库:
引用
# mysql -u root -p
Enter password:
mysql> create database hive;
mysql> grant all on hive.* to hive@'%' identified by 'hive'; //创建hive用户,并授权
mysql> flush privileges;
![CentOS 6.4 hadoop集成Hive_第3张图片](http1://img.it610.com/image/product/d81aeb1da646478782c41a556dbeb585.jpg)
4、接下来在配置hive-site.xml:
引用
# cp hive-default.xml.template hive-site.xml
# cp hive-default.xml.template hive-default.xml
# cp hive-log4j.properties.template hive-log4j.properties
# cp hive-exec-log4j.properties.template hive-exec-log4j.properties
# vi hive-site.xml
5、最后下载mysql-connector-java-version.jar并将之copy到hive-0.8.1/lib目录下。
经过上述5个步骤,hive运行环境已经配置好了,下面我们来启动Hive:
引用
# cd ../bin
# ./hive
最终显示如下:
![CentOS 6.4 hadoop集成Hive_第4张图片](http1://img.it610.com/image/product/9674b85897ab44288ceea745b7e6247f.jpg)