Ubuntu1804 安装hbase2.2.4

环境准备

先决条件:

  1. 已部署hadoop集群
  2. 已部署zookeeper集群

角色介绍

hbase分为两种角色,分别是master和region server,下面分别介绍这两种角色。

1. master

master可做高可用但是只有一个master会提供服务,当提供服务的master挂掉后会通过zookeeper选举出下一个可用的master,master的作用是用来协调多个region server 之间的状态和负载,这两种角色类似于flink的master和slave

2. region server

region server 是真正存取数据的节点,region server 需要部署多台来提供集群功能,region server底层的存储依赖于hdfs。

HBase集群搭建

http://mirror.bit.edu.cn/apache/hbase

  1. 下载压缩包:
    hbase的安装压缩包下载页:
wget http://mirror.bit.edu.cn/apache/hbase/2.2.4/hbase-2.2.4-bin.tar.gz
  1. 下载完毕后解压到/data/hbase目录下:
mkdir /data/hbase
tar -zxvf hbase-2.2.4-bin.tar.gz -C /data/hbase
  1. 解压完成进入hbase工作目录:
cd /data/hbase/hbase-2.2.4
  1. 配置环境变量
    执行以下命令配置HBASE的环境变量:
cat >> /etc/profile <<EOF
#Hbase
export HBASE_HOME=/data/hbase/hbase-2.2.4
export PATH=\$PATH:\$HBASE_HOME/bin
EOF
  1. 执行source /etc/profile使修改立即生效
    修改系统变量ulimit:
ulimit -n 10240
  1. 配置master
    配置hbase-env.sh,执行vim conf/hbase-env.sh,添加如下内容(解释一下,通过从主节点ssh过去之后 /etc/profile中添加的环境变量不生效,所以这里会重复添加一些之前添加过的环境变量):
# The java implementation to use.  Java 1.8+ required.
export JAVA_HOME=/usr/local/jdk1.8.0_201 
# 这里我们使用自己已有的zookeeper,所以需要将hbase内置的zookeeper关掉
export HBASE_MANAGES_ZK=false
# hbase home
export HBASE_HOME=/data/hbase/hbase-2.2.4
# hadoop home目录
export HADOOP_HOME=/data/hadoop/hadoop-2.10.0
#Hbase 日志目录
export HBASE_LOG_DIR=${HBASE_HOME}/logs
  1. 配置hbase-site.xml,执行vim conf/hbase-site.xml,添加以下内容:
<configuration>
  <property>
    <name>hbase.rootdirname>
    <value>hdfs://hadoop-master:9000/hbasevalue>
  property>
  <property>
    <name>hbase.cluster.distributedname>
    <value>truevalue>
  property>
  <property>
    <name>hbase.unsafe.stream.capability.enforcename>
    <value>falsevalue>
  property>
  <property>
    <name>hbase.mastername>
    <value>hadoop-master:60000value>
  property>
  <property>
    <name>hbase.zookeeper.quorumname>
    <value>172.21.108.130,172.21.82.12,172.21.82.13value>
  property>
configuration>

  1. 配置regionservers,执行vim conf/regionservers,添加以下内容:
hadoop-slave1
hadoop-slave2
hadoop-slave3
  1. 配置region server:
    master配置好之后将master上的hbase拷贝到其他三台region server机器上:
scp -r /data/hbase/ hadoop-slave1:/data
scp -r /data/hbase/ hadoop-slave2:/data
scp -r /data/hbase/ hadoop-slave3:/data
  1. 启动Hbase
    在master节点启动集群:
bin/start-hbase.sh
  1. 若无报错则通过jps命令查看进程情况
    master节点存在Hmaster进程:
root@flink01:/data/hbase/hbase-2.2.2# jps
163300 HMaster
  1. slave节点存在HRegionServer进程则表示Hbase启动成功
root@flink01:/data/hbase/hbase-2.2.2# jps
163493 HRegionServer
  1. 访问http://hadoop-master:16010即可访问hbase的web页面

你可能感兴趣的:(hadoop)