在Hadoop集群基础之上安装HBase集群。
1. 集群规划
1.1 主机规划
|
Master |
Slave1 |
Slave2 |
Namenode |
是 |
是 |
|
Datanode |
是 |
是 |
是 |
HMaster |
是 |
是 |
|
HRegionServer |
是 |
是 |
是 |
Zookeeper |
是 |
是 |
是 |
1.2 软件规划
软件 |
版本 |
位数 |
Jdk |
1.8 |
64 |
Centos |
6.5 |
64 |
Zookeeper |
zookeeper-3.4.5-cdh5.13.0.tar.gz |
|
HBase |
hbase-1.2.0-cdh5.13.0.tar.gz |
|
1.3 用户规划
节点名称 |
用户组 |
用户 |
Master |
Cdh |
Cdh |
Slave1 |
Cdh |
Cdh |
Slave2 |
Cdh |
Cdh |
1.4 目录规划
名称 |
路径 |
所有软件目录 |
/home/cdh/app |
脚本目录 |
/home/cdh/tools |
日志目录 |
/home/cdh/data/hbase/logs |
Pids目录 |
/home/cdh/data/hbase/pids |
2. Hbase安装
1.1 下载hbase-1.2.0-cdh5.13.0.tar.gz,上传至master节点的/home/cdh/app目录下
1.2 解压:tar -zxvf hbase-1.2.0-cdh5.13.0.tar.gz
1.3 创建软链接:ln -s hbase-1.2.0-cdh5.13.0 hbase
1.4 修改hbase配置文件:hbase-env.sh、hbase-site.xml、regionservers(详情见本地文件)
1.5 将hdfs文件拷贝到master节点的/home/cdh/app/hbase-1.2.0-cdh5.13.0/conf目录下
cp core-site.xml /home/cdh/app/hbase-1.2.0-cdh5.13.0/conf/
cp hdfs-site.xml /home/cdh/app/hbase-1.2.0-cdh5.13.0/conf/
1.6 将master节点下的hbase安装目录分发到slave1和slave2节点
deploy.sh hbase-1.2.0-cdh5.13.0 /home/cdh/app/ slave
然后分别创建软链接
ln -s hbase-1.2.0-cdh5.13.0 hbase
1.7 创建相关目录
runRemoteCmd.sh "mkdir -p/home/cdh/data/hbase/logs" all
1.8 各个节点配置hbase环境变量
vi~/.bashrc
JAVA_HOME=/home/cdh/app/jdk
ZOOKEEPER_HOME=/home/cdh/app/zookeeper
HADOOP_HOME=/home/cdh/app/hadoop
HBASE_HOME=/home/cdh/app/hbase
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
PATH=$JAVA_HOME/bin:/home/cdh/tools:$ZOOKEEPER_HOME/bin:$HBASE_HOME/bin:$HADOOP_HOME/bin:$PATH
export JAVA_HOME CLASSPATH PATHZOOKEEPER_HOME HADOOP_HOME HBASE_HOME
保存并使之生效
source ~/.bashrc
1.9 启动hbase
1.9.1.1 启动Zookeeper:
runRemoteCmd.sh"/home/cdh/app/zookeeper/bin/zkServer.sh start" all
1.9.1.2 启动hdfs:
sbin/start-dfs.sh
1.9.1.3 启动hbase:bin/start-hbase.sh
1.9.1.4 Web 界面查看hbase:http://master:60010
如需完整的安装包+配置文件,可以加QQ群:695520445