Hbase集群配置

简介

本文介绍Hbase集群环境的搭建

下载Hbase

hbase需要到官网去下载http://hbase.apache.org/
我们这里使用的为1.2.2版本,hbase的解压这里就不在赘述了

配置HBASE_HOME及path

在/etc/profile中引入Hbase_home及path,然后执行source使其生效

配置hbase-env.sh

在hbase_home/conf下有hbase-env.sh

vim $HBASE_HOME/conf/hbase-env.sh

加入以下的配置内容:

export JAVA_HOME=/home/spark/java/jdk1.7.0_79
export HBASE_CLASSPATH=/home/spark/hbase/hbase-1.2.2/conf
# 此配置信息,设置由zk集群管理,故为false
export HBASE_MANAGES_ZK=false
export HBASE_HOME=/home/spark/hbase/hbase-1.2.2
export HADOOP_HOME=/home/spark/hadoop/hadoop-2.6.3
#Hbase日志目录
export HBASE_LOG_DIR=/home/spark/hbase/hbase-1.2.2/logs

注意hbase的log目录本身是不存在的,需要自己创建.

配置hive-site.xml

在hbase-site.xml中加入如下内容:

<name>hbase.rootdirname>
    <value>hdfs://master:9000/hbasevalue>
  property>
  <property>
     <name>hbase.cluster.distributedname>
     <value>truevalue>
  property>
  <property>
      <name>hbase.mastername>
      <value>master:60000value>
  property>
   <property>
    <name>hbase.zookeeper.property.dataDirname>
    <value>/home/spark/zookeeper/zookeeper-3.4.6/datavalue>
  property>
  <property>
    <name>hbase.zookeeper.quorumname>
    <value>master,node1,node2value>
  property>
  <property>
    <name>hbase.zookeeper.property.clientPortname>
    <value>2181value>
  property>

我们使用自己配置的zookeeper集群去管理hbase,因此要配置hbase.zookeeper的相关内容.

配置regionservers

去掉regionservers中的localhost,加入node1,node2

发送到其他节点

使用scp命令将配置好的hbase文件夹发送到node1及node2

启动hbase

我们在master节点下启动hbase,在bin目录下执行

./start-hbase.sh

返回如下信息:

starting master, logging to /home/spark/hbase/hbase-1.2.2/logs/hbase-root-master-master.out
node1: starting regionserver, logging to /home/spark/hbase/hbase-1.2.2/logs/hbase-root-regionserver-node1.out
node2: starting regionserver, logging to /home/spark/hbase/hbase-1.2.2/logs/hbase-root-regionserver-node2.out

我们在namenode节点下执行jps,发现出现HMaster进程.在datanode节点下执行jps,发现出现HRegionServer进程.
同时我们还可以通过hbase的webUI去验证Hbase的运行状态,

weburl为:http://master:16010

Hbase集群配置_第1张图片

你可能感兴趣的:(hbase)