docker pull hadoop_hive:3
建立hadoop用的内部网络(此步出错,若与其它网段冲突,可省略)
#指定固定ip号段
docker network create --driver=bridge --subnet=172.17.0.1/16 hadoop
建立Master容器,映射端口
10000端口为hiveserver2端口,后面本地客户端要通过beeline连接hive使用,有其他组件要安装的话可以提前把端口都映射出来
docker run -it -h Master --name Master -p 9870:9870 -p 8088:8088 -p 10000:10000 hadoop_hive:3 bash
若创建了网段则可指定网段运行
docker run -it --network hadoop -h Slave2 --name Slave2 hadoop_hive:3 bash
创建slave1
docker run -it -h Slave1 --name Slave1 hadoop_hive:3 bash
vim /etc/hosts
172.17.0.4 Slave1
创建slave2
docker run -it -h Slave2 --name Slave2 hadoop_hive:3 bash
vim /etc/hosts
若为exited,则全部启动
docker start Master
三台机器,都修改host文件
docker exec -it Master /bin/bash
vim /etc/hosts
172.17.0.2 Master
172.17.0.4 Slave1
172.17.0.5 Slave2
虽然容器里面已经把hadoop路径配置在系统变量里面,但每次进入需要运行source /etc/profile
才能生效使用
或vi ~/.bashrc
添加 source /etc/profile
然后进入master,启动hadoop,先格式化hdfs
#进入Master容器
docker exec -it Master bash
#进入后格式化hdfs
root@Master:/# hadoop namenode -format
启动全部,包含hdfs和yarn
cd /usr/local/hadoop/sbin
root@Master:/usr/local/hadoop/sbin# ./start-all.sh
可以看到服务起来了,本地范围宿主机ip的8088及9870端口可以看到监控信息
查看分布式文件系统状态
root@Master:/usr/local/hadoop/sbin# hdfs dfsadmin -report
Hive下载后上传到容器目录下:
下载地址:https://mirror-hk.koddos.net/apache/hive/hive-3.1.2/
docker cp apache-hive-3.1.2-bin.tar.gz Master:/usr/local
docker exec -it Master bash
cd /usr/local/
tar xvf apache-hive-3.1.2-bin.tar.gz
2.设置密码(可选设)
退出容器exit
下载CustomPasswdAuthenticator.jar
或百度一下自己打个包也完美。
复制密码包到容器hivelib下:
docker cp /root/CustomPasswdAuthenticator.jar Master:/usr/local/apache-hive-3.1.2-bin/lib
3.修改配置文件
docker exec -it Master bash
cd /usr/local/apache-hive-3.1.2-bin/conf
root@Master:/usr/local/apache-hive-3.1.2-bin/conf# cp hive-default.xml.template hive-site.xml
root@Master:/usr/local/apache-hive-3.1.2-bin/conf# vim hive-site.xml
在最前面添加下面配置:
<property>
<name>system:java.io.tmpdirname>
<value>/tmp/hive/javavalue>
property>
<property>
<name>system:user.namename>
<value>${user.name}value>
property>
点击“/”搜索hive.server2.authentication
缺省为NONE。此处改为CUSTOM
在下方添加property
<property>
<name>hive.server2.custom.authentication.classname>
<value>org.apache.hadoop.hive.contrib.auth.CustomPasswdAuthenticatorvalue>
property>
再添加用户密码 用户名root,密码root如果有多个就写多个property
<property>
<name>hive.jdbc_passwd.auth.用户名name>
<value>密码value>
<description/>
property>
Wq保存退出。
三、配置Hive相关环境变量
vim /etc/profile
#文本最后添加
export HIVE_HOME=/usr/local/apache-hive-3.1.2-bin
export PATH=$PATH:$HIVE_HOME/bin
配置后执行source /etc/profile
生效
4.配置mysql作为元数据库
1.在本地的mysql数据库建立个hive库
容器ip地址类似window的分配机制,如果不设置固定ip容器重启后会自动分配ip,因此数据库相关的容器建议设置为固定ip。
2.回到Master容器,修改关联数据库的配置
docker exec -it Master bash
vim /usr/local/apache-hive-3.1.2-bin/conf/hive-site.xml
搜索关键词修改数据库url、驱动、用户名,url根据上面建容器时候地址。
#注意hive配置文件里面使用&作为分隔,高版本myssql需要SSL验证,在这里设置关闭
<property>
<name>javax.jdo.option.ConnectionUserNamename>
<value>rootvalue>
property>
<property>
<name>javax.jdo.option.ConnectionPasswordname>
<value>rootvalue>
property>
<property>
<name>javax.jdo.option.ConnectionURLname>
<value>jdbc:mysql://192.168.0.103:3306/hive?createDatabaseIfNotExist=true&useSSL=falsevalue>
property>
<property>
<name>javax.jdo.option.ConnectionDriverNamename>
<value>com.mysql.jdbc.Drivervalue>
property>
<property>
<name>hive.metastore.schema.verificationname>
<value>falsevalue>
<property>
搜索去除特殊字符
wq保存退出。
mysql驱动上传到hive的lib下
exit
退出到宿主机
docker cp /root/mysql-connector-java-8.0.22.jar Master:/usr/local/apache-hive-3.1.2-bin/lib
然后需要对hive的lib文件夹下的部分文件做修改,不然初始化数据库的时候会报错。
docker exec -it Master bash
slf4j这个包hadoop及hive两边只能有一个,这里删掉hive这边
cd /usr/local/apache-hive-3.1.2-bin/lib
root@Master:/usr/local/apache-hive-3.1.2-bin/lib# rm log4j-slf4j-impl-2.10.0.jar
guava这个包hadoop及hive两边只删掉版本低的那个,把版本高的复制过去,这里删掉hive,复制hadoop的过去
cd /usr/local/hadoop/share/hadoop/common/lib
root@Master:/usr/local/hadoop/share/hadoop/common/lib# cp guava-27.0-jre.jar /usr/local/apache-hive-3.1.2-bin/lib
root@Master:/usr/local/hadoop/share/hadoop/common/lib# rm /usr/local/apache-hive-3.1.2-bin/lib/guava-19.0.jar
5.初始化元数据库
cd /usr/local/apache-hive-3.1.2-bin/bin
root@Master:/usr/local/apache-hive-3.1.2-bin/bin# schematool -initSchema -dbType mysql
成功后提示:
Initialization script completed
schemaTool completed
6.验证
先创建一个数据文件放到/usr/local下
cd /usr/local
vim test.txt
内容:
1,jack
2,hel
3,nack
进入hive交互界面
root@Master:/usr/local# hive
退出命令行exit;
root@Master:/usr/local# vim /usr/local/hadoop/etc/hadoop/core-site.xml
加入以下配置
<property>
<name>hadoop.proxyuser.root.hostsname>
<value>*value>
property>
<property>
<name>hadoop.proxyuser.root.groupsname>
<value>*value>
property>
注意里面的root为访问的代理用户名,看自己使用什么用户访问的hive。不是全为root用户。
保存退出。
cd /usr/local/hadoop/sbin
root@Master:/usr/local/hadoop/sbin# ./stop-dfs.sh
root@Master:/usr/local/hadoop/sbin# ./start-dfs.sh
cd /usr/local/hadoop/sbin
root@Master:/usr/local/hadoop/sbin# nohup hiveserver2 >/dev/null 2>/dev/null &
查看10000端口运行是否正常,beeline命令,!connect连接,结果查询是否正常
netstat -ntulp |grep 10000
root@Master:/usr/local/hadoop/sbin# beeline
beeline> !connect jdbc:hive2://localhost:10000/default