Linux配置hive(远程模式)

首先:

配置好三台虚拟机、免密、hadoop

我这边用node、node1、node2

远程模式:

将hive中的相关进程比如hiveserver2或者metastore这样的进程单独开启,使用客户端工具或者命令行进行远程连接这样的服务,即远程模式。客户端可以在任何机器上,只要连接到这个server,就可以进行操作。客户端可以不需要密码。

我把node1作为服务端,node作为客户端

先在node1里下载安装hive

解压、改名、授权

1. hive/conf/里面新建  hive-site.xml



    hive.metastore.warehouse.dir
    /user/hive/warehouse
    location of default database for the warehouse




    hive.exec.scratchdir
    /tmp/hive




    javax.jdo.option.ConnectionURL
    jdbc:mysql://node2:3306/hive?createDatabaseIfNotExist=true&characterEncoding=latin1



    javax.jdo.option.ConnectionDriverName
    com.mysql.jdbc.Driver



    javax.jdo.option.ConnectionUserName
    root



    javax.jdo.option.ConnectionPassword
    123456





    hive.exec.local.scratchdir
    /usr/local/src/hive/iotmp/root



    hive.server2.logging.operation.log.location
    /usr/local/src/hive/iotmp/root/operation_logs



    hive.querylog.location
    /usr/local/src/hive/iotmp/root



    hive.downloaded.resources.dir
    /usr/local/src/hive/iotmp/${hive.session.id}_resources

2.使用远程模式,需要在hadoop的core-site.xml文件中添加以下属性        三台机器全部要改


    hadoop.proxyuser.root.hosts
    *


    hadoop.proxyuser.root.groups
    *

可以在一台机器上改完然后传过去

# scp core-site.xml node1:/usr/local/src/hadoop/etc/hadoop/
# scp core-site.xml node2:/usr/local/src/hadoop/etc/hadoop/

然后删除hadoop的 logtmp        也是三台

再刷新 hadoop namenode-format

再道node上安装hive

解压改名授权环境变量,其他不管

上面完成之后就可以启用远程模式了

hive的两种服务说明

第一种服务:hiveserver2

启动                在服务端 node1

hive --service hiveserver2 &
​
然后jps会有一个RunJar的进程就是启动成功了

Linux配置hive(远程模式)_第1张图片

 

连接  在用户端node

hiveserver2得用beeline来连接

在node里
# beeline       进入beeline界面
# !connect jdbc:hive2://node1:10000
​
然后输入账号、密码
就可以连接成功了

Linux配置hive(远程模式)_第2张图片

 

第二种服务:metastore

准备:

这个服务需要修改node的hive-site.xml配置

vim hive-site.xml (其他的都不要,只需要下面一小段)


    
        hive.metastore.uris 
        thrift://ndoe1:9083
    

如果刚刚使用了hiveserver2服务就先kill掉之前的进程

# kill -9 8000

Linux配置hive(远程模式)_第3张图片

 

现在就可以启动 metastore 服务了

启动

hive --service metastore &
​
然后jps会有一个RunJar的进程就是启动成功了
(node1)

连接 node里

hive                直接敲hive就行

你可能感兴趣的:(大数据,hive,linux,hadoop)