本文介绍Hbase集群环境的搭建
hbase需要到官网去下载http://hbase.apache.org/
我们这里使用的为1.2.2版本,hbase的解压这里就不在赘述了
在/etc/profile中引入Hbase_home及path,然后执行source使其生效
在hbase_home/conf下有hbase-env.sh
vim $HBASE_HOME/conf/hbase-env.sh
加入以下的配置内容:
export JAVA_HOME=/home/spark/java/jdk1.7.0_79
export HBASE_CLASSPATH=/home/spark/hbase/hbase-1.2.2/conf
# 此配置信息,设置由zk集群管理,故为false
export HBASE_MANAGES_ZK=false
export HBASE_HOME=/home/spark/hbase/hbase-1.2.2
export HADOOP_HOME=/home/spark/hadoop/hadoop-2.6.3
#Hbase日志目录
export HBASE_LOG_DIR=/home/spark/hbase/hbase-1.2.2/logs
注意hbase的log目录本身是不存在的,需要自己创建.
在hbase-site.xml中加入如下内容:
<name>hbase.rootdirname>
<value>hdfs://master:9000/hbasevalue>
property>
<property>
<name>hbase.cluster.distributedname>
<value>truevalue>
property>
<property>
<name>hbase.mastername>
<value>master:60000value>
property>
<property>
<name>hbase.zookeeper.property.dataDirname>
<value>/home/spark/zookeeper/zookeeper-3.4.6/datavalue>
property>
<property>
<name>hbase.zookeeper.quorumname>
<value>master,node1,node2value>
property>
<property>
<name>hbase.zookeeper.property.clientPortname>
<value>2181value>
property>
我们使用自己配置的zookeeper集群去管理hbase,因此要配置hbase.zookeeper的相关内容.
去掉regionservers中的localhost,加入node1,node2
使用scp命令将配置好的hbase文件夹发送到node1及node2
我们在master节点下启动hbase,在bin目录下执行
./start-hbase.sh
返回如下信息:
starting master, logging to /home/spark/hbase/hbase-1.2.2/logs/hbase-root-master-master.out
node1: starting regionserver, logging to /home/spark/hbase/hbase-1.2.2/logs/hbase-root-regionserver-node1.out
node2: starting regionserver, logging to /home/spark/hbase/hbase-1.2.2/logs/hbase-root-regionserver-node2.out
我们在namenode节点下执行jps,发现出现HMaster进程.在datanode节点下执行jps,发现出现HRegionServer进程.
同时我们还可以通过hbase的webUI去验证Hbase的运行状态,
weburl为:http://master:16010