hue集成hive详解

1、下载hue压缩包
下载的方式很多,可以根据自己的偏好选择下载方式

2、解压:tar -zxvf 下载的压缩包 -C 指定的目录

3、搭建hue运行环境
hue是用Python语言,需要Py环境
yum search python | grep -i devel (找到对应的python-devel)
yum install python-devel.x86_64
然后在/root/apps/hue-4.2.0 目录下make apps会报错:
(1)出现No package ‘libffi’ found的问题
yum install -y libffi libffi-devel
(2)出现问题unable to execute gcc: No such file or directory
yum -y install gcc gcc-c++ kernel-devel
(3)出现一堆声明参数不存在的问题并提示:command ‘gcc’ failed with exit status 1
yum install gcc openssl-devel
(4)出现error: command ‘gcc’ failed with exit status 1错误,这次是关于lxml文件夹下的
yum install libxslt-devel
(5)出现问题EnvironmentError: mysql_config not found
yum -y install mysql-server mysql mysql-devel
(6)error: command ‘gcc’ failed with exit status 1
yum install gmp-devel
(7)出现问题sqlite3.h:没有那个文件或目录
yum install sqlite-devel
(8)出现问题lber.h:没有那个文件或目录 ldap.h:没有那个文件或目录的错误
yum install openldap-devel
最终make apps不报错,完成!

详情请访问:https://www.cnblogs.com/rainydayfmb/p/7004515.html

4、hive相关配置
hive-size.xml配置:


hive.server2.thrift.port
10000



hive.server2.thrift.bind.host
hadoop02



hive.server2.long.polling.timeout
5000



hive.metastore.uris
thrift://hadoop02:9083

5、hadoop集群的配置:解决用户访问权限的问题
core-size.xlm配置:



 hadoop.proxyuser.root.hosts
 *



 hadoop.proxyuser.root.groups
 *

hdfs-size.xml配置:


 dfs.webhdfs.enabled
 true

远程发送到集群其它节点对应目录下
scp core-site.xml hdfs-site.xml hdp02:/home/hadoop/apps/hadoop-2.7.6/etc/hadoop/
scp core-site.xml hdfs-site.xml hdp03:/home/hadoop/apps/hadoop-2.7.6/etc/hadoop/

6、hue的相关配置:
进入/root/apps/hue-4.2.0/desktop/con目录,修改 hue.ini文件
修改[beeswax]下的内容:
hive_server_host=hadoop02
hive_server_port=10000
hive_conf_dir=/root/apps/apache-hive-2.3.2-bin/conf

7、解决hue页面上database is locked 的问题:
https://www.cnblogs.com/justinyang/p/8728522.html
(1)修改数据库:
进入/root/apps/hue-4.2.0/desktop/con目录,修改 hue.ini文件
修改[[database]]的内容:
engine=mysql
host=hadoop03
port=3306
user=root
password=root
name=hive
(2)始化数据库
bin/hue syncdb
(3)然后bin/hue migrate
8、启动
(1)hive启动:
启动Hive metastore:bin/hive --service metastore &
启动hiveserver2:bin/hive --service hiveserver2 &
(2)启动hue
启动脚本:
#!/bin/sh
nohup /root/apps/hue-4.2.0/build/env/bin/hue runserver hadoop01:8000 > start.out&
停止脚本:
#!/bin/sh
ps -ef | grep hue | awk ‘{print $2}’ | xargs kill -9

到此,完成!!!!!!!!!!!!!!!!

你可能感兴趣的:(hue集成hive详解)