Hadoop教程_Hive环境搭建(伪分布式/MySQL/Ubuntu)

1.安装MySQL

在Ubuntu下安装MySQL十分简单,只需要运行几行命令即可。

sudo apt-get install mysql-server #需要输入root用户的密码
sudo apt-get isntall mysql-client
sudo apt-get install libmysqlclient-dev
sudo netstat -tap | grep mysql #查看MySQL进程是否运行
mysql -u root -p #运行后输入密码进入mysql服务,则安装成功
create database hive;  #进入mysql服务后创建一个hive数据库,配置hive时使用
CREATE USER 'hive'@'%' IDENTIFIED BY 'hive'; #创建密码为hive的hive用户
GRANT ALL PRIVILEGES ON *.* TO 'hive'@'%' WITH GRANT OPTION; #授权
flush privileges;
exit;

2.Hive环境搭建

2.1下载Hive

访问Hive官网下载选择下载,这里下载的hive-2.3.3(tar.gz),将下载的压缩包进行解压缩,并进入到解压后的文件夹中。
hive文件夹内容

2.2配置Hive

2.2.1配置环境变量
使用sudo gedit ~/.bashrc,打开.bashrc文件,添加hive环境变量。使用source ~/.bashrc是环境变量生效。

    export HIVE_HOME=/home/hadoop1/Download/apache-hive-2.3.3-bin #路径名以解压缩包生成的文件夹为准
    export PATH=${HIVE_HOME}/bin:$PATH

2.2.2
apache-hive-2.3.2-bin目录下执行命令:cd conf切换到conf目录,执行命令:cp hive-env.sh.template hive-env.sh。执行gedit hive-env.sh编辑文件内容。(注:环境变量中应有HADOOP_HOME环境变量,亦可以直接写Hadoop所在文件夹路径)下图1为修改的文件内容,下图二为测试环境变量中是否包含HADOOP_HOME环境变量。
hive-env.sh
HADOOP_HOME
2.2.3
执行命令:cp hive-default.xml.template hive-site.xml。执行gedit hive-site.xml编辑文件内容。删除所有内容,输入一下配置。



<configuration>
  
  <property>
    <name>javax.jdo.option.ConnectionURLname>
    <value>jdbc:mysql://localhost:3306/hivevalue>
  property>
  <property>
    <name>javax.jdo.option.ConnectionDriverNamename>
    <value>com.mysql.jdbc.Drivervalue>
  property>
  
  <property>
    <name>javax.jdo.option.ConnectionUserNamename>
    <value>hivevalue>
  property>
  
  <property>
    <name>javax.jdo.option.ConnectionPasswordname>
    <value>hivevalue>
  property>
  
  <property>
    <name>hive.exec.local.scratchdirname>
    <value>/home/hadoop1/Download/apache-hive-2.3.3-bin/tmpvalue>
  property>
  
  <property>
    <name>hive.exec.scratchdirname>
    <value>/tmp/hadoop1/value>
  property>
  
  <property>
    <name>hive.downloaded.resources.dirname>
    <value>/home/hadoop1/Download/apache-hive-2.3.3-bin/tmpvalue>
  property>
  
  <property>
    <name>hive.querylog.locationname>
    <value>/home/hadoop1/Download/apache-hive-2.3.3-bin/tmpvalue>
    <description>Location of Hive run time structured log filedescription>
  property>
  <property>
    <name>hive.hwi.listen.portname>
    <value>3306value>
  property>
  <property>
    <name>datanucleus.schema.autoCreateAllname>
    <value>truevalue>
  property>
configuration>

2.2.4
完成上一步之后,修改文件hive-config.sh,增加以下内容:

export JAVA_HOME=${JAVA_HOME}
export HIVE_HOME=${HIVE_HOME}
export HADOOP_HOME=${HADOOP_HOME}

2.2.5
将mysql-connector-java-x.x.x的jar包放到${HIVE_HOME}/lib文件夹下。使用下列命令进行hive元数据库初始化。

schematool -dbType mysql -initSchema #shell下执行。

3.验证

使用service mysqld start开启mysql服务,使用start-dfs.sh开启hadoop。使用hive进入hive shell模式。
Hadoop教程_Hive环境搭建(伪分布式/MySQL/Ubuntu)_第1张图片
Hadoop教程_Hive环境搭建(伪分布式/MySQL/Ubuntu)_第2张图片
这里写图片描述

你可能感兴趣的:(linux,学习,hadoop学习)