2.1.0安装Hive--(默认derby数据库)

安装Hive—(默认derby数据库)

一、       新建一个Hive文件夹

二、       上传hive的安装包

2.1.0安装Hive--(默认derby数据库)_第1张图片

三、       解压到指定文件夹

tar  -zxvf apache-hive-1.2.1-bin.tar.gz  –C  /…

四、      配置环境变量

vi /etc/profile

            追加:

export HIVE_HOME=/usr/hive/hive-1.2.1/apache-hive-1.2.1-bin
export  PATH=$HIVE_HOME/bin:$PATH

           立即生效:

source/etc/profile

2.1.0安装Hive--(默认derby数据库)_第2张图片

五、   修改hive-env.sh文件

hive-env.sh.template拷贝为hive-env.sh

2.1.0安装Hive--(默认derby数据库)_第3张图片

            追加:

export     HIVE_CONF_DIR=/usr/hive/hive-1.2.1/apache-hive-1.2.1-bin/conf/
export     HADOOP_HOME=/usr/hadoop/hadoop-2.6.4/

六、   修改hive-site.xml

hive-default.xml.template拷贝hive-site.xml

2.1.0安装Hive--(默认derby数据库)_第4张图片

追加:(使用默认derby数据库)


         javax.jdo.option.ConnectionURL
         jdbc:derby:;databaseName=metastore_db;create=true
         JDBCconnect string for a JDBC metastore
    
     
        javax.jdo.option.ConnectionDriverName
        org.apache.derby.jdbc.EmbeddedDriver
        Driver class name for aJDBC metastore
  
  
       javax.jdo.option.ConnectionUserName
       APP
       username to use againstmetastore database
  
  
       javax.jdo.option.ConnectionPassword
       mine
       password to use againstmetastore database
  

2.1.0安装Hive--(默认derby数据库)_第5张图片

七、      启动hive

八、  报错

            1.配置文件路径问题

2.1.0安装Hive--(默认derby数据库)_第6张图片

                原因:hive-site.xml路径问题

                解决:更改三个value

2.1.0安装Hive--(默认derby数据库)_第7张图片

            2.jar包冲突问题

2.1.0安装Hive--(默认derby数据库)_第8张图片

                原因:hive-1.2.1中jlin2的jar包版本比hadoop-2.6.4中的jline版本高。

                hadoop:jline-0.9.94.jar

2.1.0安装Hive--(默认derby数据库)_第9张图片

                hive: jline-2.12.jar

2.1.0安装Hive--(默认derby数据库)_第10张图片

                解决:将hadoop中的换成高级版本

2.1.0安装Hive--(默认derby数据库)_第11张图片

2.1.0安装Hive--(默认derby数据库)_第12张图片

九、  重新启动

十、      如果在安装hive之前已经安装了Spark

                会出现错误信息:

2.1.0安装Hive--(默认derby数据库)_第13张图片

                不影响hive的启动。

                原因:

spark2以后,原有lib目录下的大JAR包被分散成多个小JAR包,原来的spark-assembly-*.jar已经不存在,所以hive没有办法找到这个JAR包。

                解决:

      进入hive安装目录下的bin目录,编辑bin目录下的hive文件。

                修改:

2.1.0安装Hive--(默认derby数据库)_第14张图片

修改为:

sparkAssemblyPath=`ls ${SPARK_HOME}/jars/*.jar`

2.1.0安装Hive--(默认derby数据库)_第15张图片

十一、          再次启动

            没有jar的报错信息。

十二、    执行show tables;命令

            注意:必须以分号结尾(告诉hive立即执行该命令)

             和SQL一样,不区分大小写。

2.1.0安装Hive--(默认derby数据库)_第16张图片

十三、    建立测试表test

create table test (key string);

 

你可能感兴趣的:(Hive)