前提是hadoop安装了 jdk安装了 zookeeper安装了
所用机器:
192.168.0.208 (HB208)(主几点)
192.168.0.209 (HB209)(从节点)
192.168.0.210 (HB210)(从节点)
上传hbase安装包
2.解压
3.配置hbase集群,要修改3个文件(首先zk集群已经安装好了)
注意:要把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下
3.1修改
hbase-env.sh
export JAVA_HOME=/usr/java/jdk1.7.0_55 #修改里面的jdk路径
export HBASE_MANAGES_ZK=false #告诉hbase使用外部的zk
vim hbase-site.xml
<configuration> <!-- 指定hbase在HDFS上存储的路径 --> <property> <name>hbase.rootdir</name> <value>hdfs://HB208:9000/hbase</value> </property> <!-- 指定hbase是分布式的 --> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <!-- 指定zk的地址,多个用“,”分割 --> <property> <name>hbase.zookeeper.quorum</name> <value>HB208:2181,HB209:2181,HB210:2181</value> </property> </configuration>
vim regionservers
HB208 HB209 HB210
3.2拷贝hbase到其他节点
scp -r /opt/hbase-0.96.2/ HB209:/opt/ scp -r /opt/hbase-0.96.2/ HB209:/opt/
4.将配置好的HBase拷贝到每一个节点并同步时间。
5.启动所有的hbase
分别启动zk
./zkServer.sh start
启动hadoop 在主节点上运行:
start-dfs.sh
启动hbase,在主节点上运行:
start-hbase.sh
6.通过浏览器访问hbase管理页面
192.168.1.201:60010
7.为保证集群的可靠性,要启动多个HMaster
在从节点上的hbass /bin目录下执行 从节点上会多出HMaster主节点的备用节点
hbase-daemon.sh start master
本文出自 “为了手指那个方向” 博客,谢绝转载!