a、三台linux服务器,分别命名为node1、node2、node3(已在/etc/hosts文件里做好了ip和名字的映射)
b、软件压缩包存储路径:/export/software/
c、解压后安装包存储路径:/export/server/
d、hadoop版本:hadoop-3.3.0
hadoop和hbase兼容性
网址:https://dlcdn.apache.org/hbase/2.4.11/
(base) [root@node1 conf]# tar -zxvf hbase-2.4.11-bin.tar.gz -C /export/server
(base) [root@node1 conf]# cd /export/server/hbase-2.4.11/conf
a、修改hbase-site.xml文件
(base) [root@node1 conf]# vim hbase-env.sh
增加以下两项(也可以在文件里找到然后修改)
#安装的jdk的路径
export JAVA_HOME=/export/server/jdk1.8.0_241/
export HBASE_CLASSPATH=/export/server/hadoop-3.3.0/etc/hadoop
export HBASE_MANAGES_ZK=false
b、修改hbase-site.xml文件
(base) [root@node1 conf]# vim hbase-site.xml
修改或者直接增加以下内容:
hbase.rootdir
hdfs://node1:8020/hbase
hbase.cluster.distributed
true
hbase.zookeeper.quorum
node1,node2,node3:2181
hbase.master.info.port
60010
hbase.unsafe.stream.capability.enforce
false
c、修改regionservers文件
指定HBase集群的从节点;原内容清空,添加如下三行
node1
node2
node3
d、修改backup-masters文件
创建back-masters配置文件,里边包含备份HMaster节点的主机名,每个机器独占一行,实现HMaster的高可用(原文件不存在,需要新建)
(base) [root@node1 conf]# vim backup-masters
将node2作为备份的HMaster节点,内容如下
node2
将 node1上的HBase安装包,拷贝到其他机器上
(base) [root@node1 conf]# scp -r hbase-2.4.11/ node2:/export/server
(base) [root@node1 conf]# scp -r hbase-2.4.11/ node3:/export/server
注意:三台机器均需如下操作
因为HBase集群需要读取hadoop的core-site.xml、hdfs-site.xml的配置文件信息,所以我们三台机器都要执行以下命令,在相应的目录创建这两个配置文件的软连接
(base) [root@node1 conf]# ln -s /export/server/hadoop-3.3.0/etc/hadoop/core-site.xml /export/server/hbase-2.4.11/conf/core-site.xml
(base) [root@node1 conf]# ln -s /export/server/hadoop-3.3.0/etc/hadoop/hdfs-site.xml /export/server/hbase-2.4.11/conf/hdfs-site.xml
三台机器均执行以下命令,添加环境变量
(base) [root@node1 hbase-2.4.11]# vim /etc/profile
export HBASE_HOME=/export/server/hbase-2.4.11
export PATH=$PATH:$HBASE_HOME/bin
重新编译/etc/profile,让环境变量生效
(base) [root@node1 hbase-2.4.11]# source /etc/profile
需要提前启动HDFS及ZooKeeper集群
如果没开启hdfs,请在node1运行start-dfs.sh命令
如果没开启zookeeper,请在3个节点分别运行zkServer.sh start命令
第一台机器node1(HBase主节点)执行以下命令,启动HBase集群
(base) [root@node1 spark]# start-hbase.sh
启动完后,jps查看HBase相关进程
node1、node2上有进程HMaster、HRegionServer
node3上有进程HRegionServer
浏览器页面访问
http://node1:60010
(base) [root@node1 spark]# stop-hbase.sh
node01上运行,关闭hbase集群
关闭ZooKeeper集群
关闭Hadoop集群
关闭虚拟机