HBase分布式部署实践

一、Hbase的分布式部署

依赖环境

  • Hadoop集群,需要开启hdfs。本例中HDFS的地址是master:9000
  • 开启Zookeeper集群

部署

从Apache 下载镜像,使用scp将文件选择上传到master服务器后,进行解压。

$ tar xfz hbase-1.4.11-bin.tar.gz
$ cd hbase-1.4.11/

将Hadoop的配置信息复制一份到HBase

$ cp $HADOOP_CONF_DIR/core-site.xml ./conf
$ cp $HADOOP_CONF_DIR/hdfs-site.xml ./conf

配置HBase环境变量,修改conf/hbase-env.sh

$ vim conf/hbase-env.sh
export JAVA_HOME=/home/spark/software/jdk8
export HADOOP_HOME=/home/spark/software/hadoop
export HBASE_CLASSPATH=/home/spark/software/hadoop/etc/hadoop
export HBASE_MANAGES_ZK=false #使用外部的zk

export HBASE_PID_DIR=/home/spark/software/hbase-1.4.11/pids

使用Hadoop当前用户建立一个HDFS目录,用于存放HBase数据。

$ hadoop fs -mkdir hbase

配置HRegionServer。修改conf/regionservers

localhost
slave6
slave7
slave9

配置Hbase信息

$ vim conf/hbase-site.xml


  
  
    hbase.rootdir
    hdfs://master:9000/user/spark/hbase
  
  
  
  
    hbase.cluster.distributed
    true
  
  
  
    hbase.unsafe.stream.capability.enforce
    true
  
  
  
    hbase.master
    hdfs://master:60000
  
  
  
  
    hbase.zookeeper.quorum
    master,slave6,slave7,slave9
  
  
    hbase.zookeeper.property.clientPort
    2186
  
  
    hbase.zookeeper.property.dataDir
    /home/spark/tools/zookeeper-3.4.14/data
  


复制HBase到HRegion服务器上:

$ scp $HBASE_HOME spark@slave6:/home/spark/software
$ scp $HBASE_HOME spark@slave7:/home/spark/software
$ scp $HBASE_HOME spark@slave9:/home/spark/software

启动

$ ./bin/start-hbase.sh

二、验证启动成功

WEB UI验证:http://master:16010/master-status

HBase分布式部署实践_第1张图片
HBase web UI.png

参考资料:
Hbase实践官方文档
CSDN-Hbase分布式部署

你可能感兴趣的:(HBase分布式部署实践)