Hive 使用方式,即三种连接方式

CLI:

进入到 bin 目录下,直接输入命令:
[hadoop@hadoop01 bin]$ ./hive

补充:

1、上面的 hive 命令相当于在启动的时候执行:hive --service cli
2、使用 hive --help,可以查看 hive 命令可以启动那些服务
3、通过 hive --service serviceName --help 可以查看某个具体命令的使用方式

HiveServer2/beeline:

启动方式,(假如是在 hadoop01 上):

启动为前台:bin/hiveserver2
启动为后台:nohup bin/hiveserver2 1>/var/log/hiveserver.log 2>/var/log/hiveserver.err &
或者:nohup bin/hiveserver2 1>/dev/null 2>/dev/null &
或者:nohup bin/hiveserver2 >/dev/null 2>&1 &
1:表示标准日志输出
2:表示错误日志输出
如果我没有配置日志的输出路径,日志会生成在当前工作目录,默认的日志名称叫做:
nohup.xxx
nohup 命令:如果你正在运行一个进程,而且你觉得在退出帐户时该进程还不会结束,那么可以使用 nohup 命令。
该命令可以在你退出帐户/关闭终端之后继续运行相应的进程。nohup 就是不挂起的意思(no hang up)。
该命令的一般形式为:nohup command &

启动客户端去连接:

bin/beeline -u jdbc:hive2://hadoop02:10000 -n root
-u : 指定元数据库的链接信息
-n : 指定用户名和密码
另外还有一种方式也可以去连接:
先执行 bin/beeline
然后输入:!connect jdbc:hive2://hadoop01:10000 按回车,然后输入用户名,这个用户名就是安装 hadoop 集群的用户名

Web UI:

下载对应版本的 src 包:

http://archive.cloudera.com/cdh5/cdh/5/hive-1.1.0-cdh5.14.0-src.tar.gz

上传,解压:

tar -zxvf hive-1.1.0-cdh5.14.0-src.tar.gz

然后进入目录${HIVE_SRC_HOME}/hwi/web,执行打包命令:

jar -cvf hive-hwi-1.1.0.war * 

在当前目录会生成一个 hive-hwi-1.1.0.war

得到 hive-hwi-1.1.0.war 文件,复制到 hive 下的 lib 目录中

cp hive-hwi-1.1.0.war ${HIVE_HOME}/lib/  

修改配置文件 :

cd /home/hadoop/apps/hive-1.1.0-cdh5.14.0/conf

hive-site.xml:


     hive.hwi.listen.host
     0.0.0.0
     监听的地址


     hive.hwi.listen.port
     9999
     监听的端口号


     hive.hwi.war.file
     lib/hive-hwi-1.2.1.war
     war 包所在的地址

复制所需 jar 包:

1、cp ${JAVA_HOME}/lib/tools.jar ${HIVE_HOME}/lib
2、再寻找三个 jar 包,都放入${HIVE_HOME}/lib 目录:(一般${HIVE_HOME}/lib目录下有)
    commons-el-1.0.jar
    jasper-compiler-5.5.23.jar
    jasper-runtime-5.5.23.jar
不然启动 hwi 服务的时候会报错。

安装 ant:

 上传 ant 包:

https://ant.apache.org/bindownload.cgi
apache-ant-1.10.3-bin.tar.gz

解压:

tar -zxvf apache-ant-1.10.3-bin.tar.gz -C ~/apps/
配置环境变量
vim ~/.bashrc

在最后增加两行:

export ANT_HOME=/home/hadoop/apps/apache-ant-1.10.3
export PATH=$PATH:$ANT_HOME/bin

配置完环境变量别忘记执行:

source ~/.bashrc

验证是否安装成功:

ant -version

上面的步骤都配置完,基本就大功告成了。

进入${HIVE_HOME}/bin 目录:

${HIVE_HOME}/bin/hive --service hwi
或者让在后台运行:
nohup bin/hive --service hwi > /dev/null 2> /dev/null &
前面配置了端口号为 9999,所以这里直接在浏览器中输入:
hadoop01:9999/hwi


你可能感兴趣的:(大数据,R_记忆犹新的大数据学习之路)