Hadoop 上 Hive 的安装与启动

我把最近 Hadoop 学习的版本换成 CDH(感觉集合性比较好)
CDH 地址:http://archive.cloudera.com/cdh5/cdh/5/

下载 Hive 的版本:hive-1.1.0-cdh5.7.0.tar.gz

1)第一步:解压 Hive

解压命令:tar -xvf hive-1.1.0-cdh5.7.0.tar   -C /opt

2) 第二步:mysql 的安装

我的是 Centos6.9安装 Mysql
命令:yum install mysql-server 

安装完成后:启动 Mysql
命令:service mysqld start

第一次安装 mysql默认没有密码,账户是 root,可以无密码登录
直接输入 mysql 就可以进入

给 Mysql 下的 root 账户追加密码
命令:/usr/bin/mysqladmin -u root password 123456

---------------------------
测试密码是不是追加成功
1)输入 mysql 显示错误就是密码已经修改
2)用修改后的密码登录
命令:mysql -u root -p 
Enter password: (输入修改后的密码123456)
------------------------------

3)修改 Hive 的配置文件
cd /opt/hive-1.1.0-cdh5.7.0/conf
命令:vi hive-site.xml
添加一下内容
Hadoop 上 Hive 的安装与启动_第1张图片



        javax.jdo.option.ConnectionURL
        jdbc:mysql://localhost:3306/sparksql?createDatabaseIfNotExist=true


        javax.jdo.option.ConnectionDriverName
        com.mysql.jdbc.Driver
    
    
        javax.jdo.option.ConnectionUserName
        root
    

    
        javax.jdo.option.ConnectionPassword
        123123
    

jdbc:mysql://localhost:3306/sparksql?createDatabaseIfNotExist=true
中的 sparksql 因为有后面的后缀,不用手动创建

javax.jdo.option.ConnectionUserName
自己设置的账户名字 和密码自己设置

4)上传 mysql 的驱动到 HIVE_HOME/lib 目录下

自己下载 mysql 的驱动包,和自己 java 以前导入驱动包一样
下载路径:mysql-connector-java-5.1.44-bin

5)启动 hive
在$HIVE_HOME/bin/hive
Hadoop 上 Hive 的安装与启动_第2张图片

你可能感兴趣的:(大数据)