spark SQL集成Hive

一、Hive的安装和配置

  1. 解压
    $ tar -zxvf ~/hive-0.13.1-bin.tar.gz -C /opt/cdh5.7.0/

  2. 创建hive仓库和tmp目录
    $ bin/hdfs dfs -mkdir -p /user/hive/warehouse
    $ bin/hdfs dfs -mkdir /tmp #不存在就创建

  3. 修改权限
    $ bin/hdfs dfs -chmod g+w /user/hive/warehouse
    $ bin/hdfs dfs -chmod g+w /tmp

  4. 拷贝并修改配置文件
    cp conf/hive-default.xml.template conf/hive-site.xml
    cp conf/hive-log4j.properties.template conf/hive-log4j.properties
    cp conf/hive-env.sh.template conf/hive-env.sh

    • 修改hive-env.sh
    JAVA_HOME=/opt/modules/jdk1.7.0_67
    HADOOP_HOME=/opt/cdh5.7.0/hadoop-2.5.0
    export HIVE_CONF_DIR=/opt/cdh5.7.0/hive-0.13.1/conf
    # 这个在一定要配,不然后面Hive集成spark-SQL会报错,jdbc驱动用你自己的驱动包版本
    export SPARK_CLASSPATH=${HIVE_HOME}/lib/mysql-connector-java-5.1.34-bin.jar
    
    • 修改hive-site.xml
    
      
        javax.jdo.option.ConnectionURL
        jdbc:mysql://${YOUR_DB_IP}:3306/metastore?createDatabaseIfNotExist=true
      
    
                                                            
        javax.jdo.option.ConnectionDriverName
        com.mysql.jdbc.Driver
      
    
                              
        javax.jdo.option.ConnectionUserName
        root
      
    
                                                              
        javax.jdo.option.ConnectionPassword
        ${YOUR_PASSWD}
      
    
      
      
        hive.cli.print.header
        true
      
    
      
      
        hive.cli.print.current.db
        true
      
    
    
  5. 修改hive-log4j.properties
    hive.log.dir=/opt/cdh5.7.0/hive-1.1.0-cdh5.7.0/logs

  6. 拷贝jdbc驱动
    $ cp /opt/software/mysql-connector-java-5.1.34-bin.jar /opt/modules/hive-0.13.1/lib/

  7. 添加环境变量
    $ vi /etc/profile(普通用户也可以在~/.bash_profile中修改)
    profile文件中追加

# 用你自己的Hive路径
export HIVE_HOME=/opt/modules/hive-1.1.0-cdh5.7.0
PATH=${PATH}:${HIVE_HOME}/bin
export PATH
  1. 连接测试(先启动hdfs ,yarnzkServer)
    • 启动hiveserver2
      $ nohup hiveserver2 >/dev/null 2&>1 &
    • 启动beeline
      $ beeline -u jdbc:hive2://${HOSTNAME}:10000 -n ${USERNAME}

二、Spark的安装和配置

2.1 安装Scala

  1. 解压安装
    $ cd /opt/software
    $ tar -zxvf scala-2.12.6.tgz -C /opt/modules
  2. 配置Scala的环境变量
    $ su
    # vi /etc/profile
    在文件末尾添加以下内容
export SCALA_HOME=/opt/modules/scala-2.12.6
export PATH=$PATH:$SCALA_HOME/bin

保存退出
# source /etc/profile
# su regina

2.2 安装Spark

  1. 解压安装
    $ cd /opt/cdh5.7.0
    $ tar -zxvf spark-2.1.0-bin-2.6.0-cdh5.7.0.tgz -C /opt/cdh5.7.0/

  2. 修改配置文件
    $ cd /opt/cdh5.7.0/spark-2.1.0-bin-2.6.0-cdh5.7.0/conf
    $ cp log4j.properties.template log4j.properties
    $ cp slaves.template slaves
    $ cp spark-defaults.conf.template spark-defaults.conf
    $ cp spark-env.sh.template spark-env.sh

2.2.1 spark on localb(本地模式):
  1. 修改spark-env.sh
JAVA_HOME=/opt/modules/jdk1.8.0_171
SCALA_HOME=/opt/modules/scala-2.12.6
HADOOP_CONF_DIR=/opt/cdh5.7.0/hadoop-2.6.0-cdh5.7.0/etc/hadoop
SPARK_LOCAL_IP=${HOSTNAME}
  1. linux本地环境测试
  • 启动hdfs的服务
  • 运行run-example
    $ bin/run-example SparkPi
    $ bin/run-example SparkPi 100
  • 官方文档测试
    bin/spark-shell
2.2.2 Spark Standalone(独立运行模式):
>是一种类似Yarn的spark自带的资源管理框架
>Yarn结构
>1) `ResourceManager` 负责集群资源的管理
>2) `NodeManager` 负责当前节点上的资源管理
  1. Standalone结构

    • Master 负责管理集群的所有资源
    • Worker 负责当前进程的所有资源
  2. Standalone的环境配置:

    • 前提: spark的本地执行环境已经搭建好了
    • 修改conf/spark-env.sh文件内容
      SPARK_MASTER_HOST=safari
      SPARK_MASTER_PORT=7070
      SPARK_MASTER_WEBUI_PORT=8080
      SPARK_WORKER_CORES=2   ## 给定当前的机器上的一个 worker进程允许分配/管理的cpu核数
      SPARK_WORKER_MEMORY=2g      ## 给定当前机器上的一个worker进程允许分配/管理的内存大小
      SPARK_WORKER_PORT=7071
      SPARK_WORKER_WEBUI_PORT=8081
      SPARK_WORKER_INSTANCES=2    ## 给定当前机器上允许存在多少个worker进程(启动进程后,jps命令可以看到几个worker)
      
    1. 配置worker机器列表(slave列表)
      cp conf/slaves.template conf/slaves
      修改slaves文件
    ${SLAVE_NAME}
    
    1. 启动standalone的服务
      sbin/start-master.sh
      sbin/start-slaves.sh
      sbin/start-slave.sh spark://${HOSTNAME}:7070
      sbin/stop-all.sh ==> 关闭所有
      sbin/start-all.sh ==> 开启所有
2.2.3 spark-sql集成Hive
  1. Hiveconf目录下的hive-site.xml拷贝到sparkconf目录下
    $ cp ${HIVE_HOME}/conf/hive-site.xml ${SPARK_HOME}/conf
  2. 启动Hivemetastore(已经启动HDFSspark集群)
    $ hive --service metastore
  3. 确定之前的hiveserver2beeline都配置成功(确定配置成功,但是一定不要启动hiveserver2,会占用10000端口号)
    $ bin/spark-sql
  4. 启动thriftserver以及beeline
    $ sbin/start-thriftserver.sh
    $ beeline -u jdbc:hive2://{HOSTNAME}:10000 -n ${USERNMAE}

你可能感兴趣的:(spark SQL集成Hive)