【大数据工具】HBase 集群搭建与基本使用

HBase 集群搭建

HBase 安装包下载地址:https://archive.apache.org/dist/hbase/

安装 HBase 的前提:

  • ZooKeeper 集群 OK
  • Hadoop 集群 OK

1. HBase 集群安装

1. 将 HBase 软件包上传至 Hadoop0 解压并重命名

  • 使用 FileZilla 将 hbase-1.3.1-bin.tar.gz 上传至 Hadoop0 的 /software/ 目录下

  • 解压 hbase-1.3.1-bin.tar.gz,并重命名解压后的文件夹

[root@hadoop0 ~]# cd /software/
[root@hadoop0 software]# tar -zxvf hbase-1.3.1-bin.tar.gz
[root@hadoop0 software]# mv hbase-1.3.1 hbase

2. 添加环境变量

# /etc/profile,添加完source加载一下使其生效
export HBASE_HOME=/software/hbase
export PATH=.:$PATH:$HBASE_HOME/bin

3. 修改配置文件

操作路径: $HBASE_INSTALL/conf

(1)修改 hbase-env.sh

  • 可在命令模式下通过 / 进行查找,false 代表使用的是外置的 zookeeper,true 代表使用的是 hadoop 自带的 zookeeper
[root@hadoop0 conf]# vi hbase-env.sh
export JAVA_HOME=/software/jdk/
export HBASE_MANAGES_ZK=false

(2)修改 hbase-site.xml

  • 注意 hdfs://hadoop0:8020/hbase 的端口和 hadoop 保持一致,hadoop 没有配置端口默认是 8020,配置了一般配置 9000 端口
[root@hadoop0 conf]# vi hbase-site.xml
<property>
    <name>hbase.rootdir</name>
    <value>hdfs://hadoop0:8020/hbase</value>
</property> <property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
</property>
<property>
    <name>hbase.zookeeper.quorum</name>
    <value>hadoop0,hadoop1,hadoop2</value>
</property>
<property>
    <name>hbase.zookeeper.property.dataDir</name>
    <value>/software/zk</value>
</property>

(3)修改 regionservers(存放的 region server 的 hostname)

[root@hadoop0 conf]# vi regionservers
hadoop1
hadoop2

(4)复制 Hadoop0 中的 hbase 文件夹到 Hadoop1、Hadoop2 中,在 Hadoop0 中执行如下命令:

[root@hadoop0 conf]# scp -r /software/hbase hadoop1:/software/
[root@hadoop0 conf]# scp -r /software/hbase hadoop2:/software/

(5)配置从节点环境变量

  • 复制 Hadoop0 中的 /etc/profile 到 Hadoop1、Hadoop2 中,在 Hadoop1、Hadoop2 上执行 source /etc/profile;或直接修改 Hadoop1 和 Hadoop2 的环境变量配置文件
scp /etc/profile hadoop1:/etc/
scp /etc/profile hadoop2:/etc/

2. 启动/停止 HBase 集群

1. 三台服务器分别启动 ZooKeeper

  • 配置了环境变量,不需要切到 zk 的 bin 目录下
# 切到zk的安装目录下的bin目录中
cd /software/zk/bin
zkServer.sh start
# 启动完查看下状态:
zkServer.sh status

2. 在 Hadoop0 上启动 Hadoop(Hadoop2 和 Hadoop3 就一块启动了)

# start-all是把hdfs和yarn都启动了
start-all.sh
# 查看状态:
jps

3. 启动 HBase(hadoop0 启动即可)

start-hbase.sh
# 退出HBase:
stop-hbase.sh

启动完成查看进程情况

【大数据工具】HBase 集群搭建与基本使用_第1张图片

  • HBase:主从架构式的集群
  • 主节点:HMaster
  • 从进程:HRegionServer

3. 查看 HBase 的 webUI 界面

172.16.15.100:16010

【大数据工具】HBase 集群搭建与基本使用_第2张图片

你可能感兴趣的:(大数据工具安装,hbase,hadoop,大数据)