HBase安装下载与集群(高可用)

一、准备

1.1 安装zookeeper

zookeeper 安装下载与集群

1.2 安装HADOOP

hadoop搭建集群搭建

1.3下载HBase

https://mirrors.tuna.tsinghua.edu.cn/apache/hbase/

二、正常部署

2.1 检查是否正常启动

HBase安装下载与集群(高可用)_第1张图片

2.2解压

tar -zvxf hbase-2.4.11-bin.tar.gz

2.3配置环境变量

vim /etc/profile.d/my_env.sh 
#HBASE_HOME
export HBASE_HOME=/usr/local/src/hbase/hbase-2.4.11
export PATH=$HBASE_HOME/bin:$PATH                          

HBase安装下载与集群(高可用)_第2张图片
source环境变量

source /etc/profile.d/my_env.sh

2.4修改配置

2.4.1 配置hbase-env.sh 不使用habse自带的zookeeper

vim  $HBASE_HOME/conf/hbase-env.sh
export HBASE_MANAGES_ZK=false

HBase安装下载与集群(高可用)_第3张图片

2.4.2 配置habse-site.xml

 vim  $HBASE_HOME/conf/hbase-site.xml



<configuration>
    
    <property>
        <name>hbase.zookeeper.quorumname>
		
        <value>hadoop100,hadoop101,hadoop102value>
        <description>The directory shared by RegionServers.
        description>
    property>
    
    
    
    
    
    
    
    <property>
        <name>hbase.rootdirname>
		
        <value>hdfs://hadoop100:9000/hbasevalue>
        <description>The directory shared by RegionServers.
        description>
    property>
    <property>
        <name>hbase.cluster.distributedname>
        <value>truevalue>
    property>
configuration>

配置regionservers

vim $HBASE_HOME/conf/regionserver
hadoop100
hadoop101
hadoop102

HBase安装下载与集群(高可用)_第4张图片

2.4.4 使用 Hadoop 的 jar 包,解决 HBase 和 Hadoop 的 log4j 兼容性问题

 mv $HBASE_HOME/lib/client-facing-thirdparty/slf4j-reload4j-1.7.33.jar $HBASE_HOME/lib/client-facing-thirdparty/slf4j-reload4j-1.7.33.jar.bak

2.4.5 分发给其他节点

scp -r /usr/local/src/hbase root@hadoop102:/usr/local/src
scp -r /usr/local/src/hbase root@hadoop101:/usr/local/src

环境变量

scp -r /etc/profile.d/my_env.sh root@hadoop101:/etc/profile.d
scp -r /etc/profile.d/my_env.sh root@hadoop102:/etc/profile.d

记得source环境变量

source /etc/profile.d/my_env.sh

2.5 启动

2.5.1单点启动

$HBASE_HOME/bin/hbase-daemon.sh start master

2.5.2 群启

$HBASE_HOME/bin/start-hbase.sh 

2.6 报错

Error: JAVA_HOME is not set

HBase安装下载与集群(高可用)_第5张图片

2.6.1原因是没配置JAVA_HOME

vim $HBASE_HOME/conf/hbase-env.sh 
export JAVA_HOME=/usr/local/software/jdk/jdk1.8.0_131/

HBase安装下载与集群(高可用)_第6张图片
记得要分发给其他节点,其他节点的JAVA_HOME可能也不同,需要注意

重新启动
HBase安装下载与集群(高可用)_第7张图片

Failed to load class "org.slf4j.impl.StaticLoggerBinder"

HBase安装下载与集群(高可用)_第8张图片
如果启动一直报
Defaulting to no-operation (NOP) logger implementation
请看
2.4.4 使用 Hadoop 的 jar 包,解决 HBase 和 Hadoop 的 log4j 兼容性问题
如果还是有,看是哪个节点报错,直接删除,再重新把hbase重新分发过去

还是会的话
我看是102节点有问题,
我把102节点2.4.4修改的jar包改回来,重新启动后,就可以了
在这里插入图片描述

三、高可用

vim $HBASE_HOME/conf/backup-masters

写入你需要做为备份主节点的ip
HBase安装下载与集群(高可用)_第9张图片
记得分发
重新启动
HBase安装下载与集群(高可用)_第10张图片
备份主节点的时候是还不会有region servers的信息,只有单主节点挂了,他才会拉取region servers信息
HBase安装下载与集群(高可用)_第11张图片

你可能感兴趣的:(hbase,hadoop,大数据)