hbase分布式集群的安装

火山日常啰嗦
装hbase啦,只谈安装步骤及测试结果,亲测可行,所以有需要的小伙伴们可以参考哦。

前提准备:
1) hadoop集群已安装好
2) zookeeper集群已安装好

组件版本:
1) hadoop-2.7.3
2) zookeeper-3.4.10
3) hbase-1.2.5

步骤:
1) 解压hbase-1.2.5-bin.tar.gz,并指定解压到哪个目录,-C的作用就是指定解压目录
tar -zxvf hbase-1.2.5-bin.tar.gz -C /opt/modules/

2) 修改环境变量
vim /etc/profile
export HBASE_HOME=/opt/modules/hbase
export PATH=$PATH:$HBASE_HOME/bin

  1. 使修改立即生效
    source /etc/profile

4) 修改hbase-env.sh
vim hbase-env.sh
export JAVA_HOME=/opt/modules/jdk1.7
export HBASE_MANAGES_ZK=false #指定不使用hbase自带的zookeeper

  1. 修改hbase-site.xml
    vim hbase-site.xml

    hbase.tmp.dir
    /opt/modules/hbase/data/tmp


    hbase.rootdir
    hdfs://volcano01.cc.com:8020/hbase


    hbase.cluster.distributed
    true


    hbase.zookeeper.quorum
    volcano01.cc.com,volcano02.cc.com,volcano03.cc.com


    hbase.master.info.port
    60010

  2. 增加slave的集群
    vim /opt/modules/hbase/conf/regionservers
    将里面的内容换成下面的:
    volcano01.cc.com
    volcano02.cc.com
    volcano03.cc.com
    ps:部署到datanode上面,在集群中启动Hbase,在哪个节点上启动的,哪个节点就是Hmaster.

  3. 复制Hbase到其他节点
    scp -r hbase [email protected]:/opt/modules
    scp -r hbase [email protected]:/opt/modules

  4. 修改各个节点的环境变量,vim /etc/profile,并使其立即生效,source /etc/profile

  5. 将各自节点中hadoop的配置文件hdfs-site.xml以及core-site.xml复制到hbase的conf目录下。

10) 启动hbase
先启动hadoop集群,start-hdfs_yarn.sh(这是我自己写的启动脚本)
再启动集群的zookeeper,分别到每个节点启动,zkServer.sh start
最后启动hbase,在一个节点启动就行,在哪个节点启动,哪个就是Hmaster,
start-hbase.sh

启动成功
hbase分布式集群的安装_第1张图片
clipboard.png

hbase分布式集群的安装_第2张图片
clipboard1.png

hbase分布式集群的安装_第3张图片
clipboard2.png

可以看出,在volcano01.cc.com启动,所以它是Hmaster,其他是regionserver因为在regionservers文件中配了三个节点,所以volcano01.cc.com既是Hmaster又是Hregionserver,当然volcano01.cc.com中也可以不配Hregionserver的。
clipboard.png
启动hbase shell
bin/hbase shell

你可能感兴趣的:(hbase分布式集群的安装)