zookeeper 安装下载与集群
hadoop搭建集群搭建
https://mirrors.tuna.tsinghua.edu.cn/apache/hbase/
tar -zvxf hbase-2.4.11-bin.tar.gz
vim /etc/profile.d/my_env.sh
#HBASE_HOME
export HBASE_HOME=/usr/local/src/hbase/hbase-2.4.11
export PATH=$HBASE_HOME/bin:$PATH
source /etc/profile.d/my_env.sh
vim $HBASE_HOME/conf/hbase-env.sh
export HBASE_MANAGES_ZK=false
vim $HBASE_HOME/conf/hbase-site.xml
<configuration>
<property>
<name>hbase.zookeeper.quorumname>
<value>hadoop100,hadoop101,hadoop102value>
<description>The directory shared by RegionServers.
description>
property>
<property>
<name>hbase.rootdirname>
<value>hdfs://hadoop100:9000/hbasevalue>
<description>The directory shared by RegionServers.
description>
property>
<property>
<name>hbase.cluster.distributedname>
<value>truevalue>
property>
configuration>
vim $HBASE_HOME/conf/regionserver
hadoop100
hadoop101
hadoop102
mv $HBASE_HOME/lib/client-facing-thirdparty/slf4j-reload4j-1.7.33.jar $HBASE_HOME/lib/client-facing-thirdparty/slf4j-reload4j-1.7.33.jar.bak
scp -r /usr/local/src/hbase root@hadoop102:/usr/local/src
scp -r /usr/local/src/hbase root@hadoop101:/usr/local/src
环境变量
scp -r /etc/profile.d/my_env.sh root@hadoop101:/etc/profile.d
scp -r /etc/profile.d/my_env.sh root@hadoop102:/etc/profile.d
记得source环境变量
source /etc/profile.d/my_env.sh
$HBASE_HOME/bin/hbase-daemon.sh start master
$HBASE_HOME/bin/start-hbase.sh
Error: JAVA_HOME is not set
vim $HBASE_HOME/conf/hbase-env.sh
export JAVA_HOME=/usr/local/software/jdk/jdk1.8.0_131/
记得要分发给其他节点,其他节点的JAVA_HOME可能也不同,需要注意
Failed to load class "org.slf4j.impl.StaticLoggerBinder"
如果启动一直报
Defaulting to no-operation (NOP) logger implementation
请看
2.4.4 使用 Hadoop 的 jar 包,解决 HBase 和 Hadoop 的 log4j 兼容性问题
如果还是有,看是哪个节点报错,直接删除,再重新把hbase重新分发过去
还是会的话
我看是102节点有问题,
我把102节点2.4.4修改的jar包改回来,重新启动后,就可以了
vim $HBASE_HOME/conf/backup-masters
写入你需要做为备份主节点的ip
记得分发
重新启动
备份主节点的时候是还不会有region servers的信息,只有单主节点挂了,他才会拉取region servers信息