安装在hadoop的namenode上,拷贝安装文件到linux中/usr/tools/apache-hive-2.0.0-bin.tar.gz
解压:
tar –zxvf apache-hive-2.0.0-bin.tar.gz
添加到环境变量
vi /etc/profile
编辑
exportHIVE_HOME=/usr/tools/apache-hive-2.0.0-bin
export PATH=$PATH:$HIVE_HOME/bin
保存后使其生效:
source /etc/profile
mysql默认不可以远程访问,设置远程访问
--GRANT ALL PRIVILEGES ON *.* TO 'root'@'%'WITH GRANT OPTION;
上面这句远程访问不需要密码,如果需要密码使用下面这句
GRANT ALLPRIVILEGES ON *.* TO 'root'@'%'IDENTIFIED BY '123456' WITH GRANT OPTION;
使权限生效:
FLUSH PRIVILEGES;
设置etc/my.cnf文件,使binlog_format=mixed
vi etc/my.cnf
将注释掉的binlog_format=mixed这一行前面的注释去掉然后保存,重启mysql即可
service mysql restart
在hdfs中新建目录/user/hive/warehouse
hdfs dfs –mkdir /tmp
hdfs dfs –mkdir /user
hdfs dfs –mkdir /user/hive
hdfs dfs –mkdir /user/hive/warehouse
hadoop fs -chmod g+w /tmp
hadoop fs -chmod g+w /user/hive/warehouse
将mysql的驱动jar包mysql-connector-java-5.1.7-bin.jar拷入hive的lib目录下面
进入hive的conf目录下面复制一下hive-default.xml.template名子命名为:hive-site.xml
cp hive-default.xml.template hive-site.xml
使用schematool 初始化metastore的schema:
Schematool -initSchema -dbType mysql
运行hive(必须保证hadoop集群和mysql都已经启动)
hive