Centos7下Hive-1.2.1安装部署

Centos7下Hive-1.2.1安装部署

解压 apache-hive-1.2.1-bin.tar.gz

$ tar -zxvf apache-hive-1.2.1-bin.tar.gz

MySql 创建 hive 用户(MySql安装在IP地址为192.168.192.13的机器上)

$ mysql -uroot -proot
mysql> create user 'hive' identified by 'hive';
mysql> grant all privileges on *.* to 'hive' with grant option;
mysql> flush privileges;

修改 hive-site.xml 配置文件

$ cp hive-default.xml.template  hive-site.xml
$ Vi hive-site.xml


<property>
    <name>system:java.io.tmpdirname>
    <value>/home/hadoop/apache-hive-1.2.1/iotmpvalue>
    <description/>
  property>
  <property>
    <name>system:user.namename>
    <value>usernamevalue>
    <description/>
  property>

<property>
        <name>javax.jdo.option.ConnectionURLname>
        <value>jdbc:mysql://slave2:3306/hive?createDatabaseIfNotExist=truevalue>
        <description>JDBC connect string for a JDBC metastoredescription>
    property>

    <property>
            <name>javax.jdo.option.ConnectionDriverNamename>
            <value>com.mysql.jdbc.Drivervalue>
            <description>Driver class name for a JDBC metastoredescription>
    property>

    <property>
            <name>javax.jdo.option.ConnectionUserNamename>
            <value>hivevalue>
            <description>username to use against metastore databasedescription>
    property>
    <property>
            <name>javax.jdo.option.ConnectionPasswordname>
            <value>hivevalue>
            <description>password to use against metastore databasedescription>
    property>

    <property>
        <name>hive.server2.thrift.portname>
        <value>10000value>
    property>
    <property>
        <name>hive.server2.thrift.bind.hostname>
        <value>slave1value>
    property>

将 hive-log4j.properties.template 复制并重命名为hive-log4j.properties
指定日志存放地址,并且创建该文件夹

hive.log.dir=/home/hadoop/apache-hive-1.2.1/logs

修改hive-env.sh.template 为 hive-env.sh,并修改里面的

$ cp hive-env.sh.template hive-env.sh
$ Vi hive-env.sh

配置Hive的配置文件路径
export HIVE_CONF_DIR= /home/hadoop/apache-hive-1.2.1/conf
配置Hadoop的安装路径
HADOOP_HOME=/home/hadoop/hadoop-2.5.1

修改环境变量文件(/etc/profile)

$ sudo vi /etc/profile

增加或修改一下内容
export HIVE_HOME=/home/hadoop/apache-hive-1.2.1-bin
export PATH=$PATH:$HIVE_HOME/bin

使配置文件生效

$ source /etc/profile

将mySql 驱动复制到 hive/bin 下

将 /home/hadoop/hadoop-2.5.1/share/hadoop/yarn/lib 下的jline-0.9.94.jar 移除,将/home/hadoop/apache-hive-1.2.1/lib 下的jline-2.12.jar 复制到该文件夹下

启动(只要在配置Hive的机器下启动即可)

需要使用远程连接服务的启动方式(JDBC等连接)
根据HIVE版本不同启动远程服务

hive --service hiveserver  hive --service hiveserver2(新版本中)

注:运行上述命令使,光标停止不动是正常的。如果需要服务后台运行则 hive –service hiveserver2 &
如果想验证是否启动正常,一可以使用 netstat –apn | grep 10000 查询端口占用情况
二可以进入apache-hive-1.2.1-bin/bin 运行 beeline
执行:!connect jdbc:hive2://172.16.43.10:10000 userName userPassword 查看是否正常
或者直接进行bin 输入 hive

你可能感兴趣的:(大数据薪资分析项目(自建))