1、 安装 zookeeper 集群,可参考我的另外一篇博文《ZooKeeper的集群搭建与配置》https://blog.csdn.net/qq_36508766/article/details/81336588
2、 找到官网下载 hbase 安装包 hbase-1.2.6-bin.tar.gz,这里给大家提供一个下载地址: http://mirrors.hust.edu.cn/apache/hbase/
3、 上传安装包到服务器,并解压到对应的安装目录 tar -zxvf hbase-1.2.6-bin.tar.gz -C /home/hadoop/apps/
4、 修改配置文件
4.1、vi hbase-env.sh 修改两个两地方:
export JAVA_HOME=/usr/local/java/jdk1.8.0_73,表示修改为自己的 jdk 目录
export HBASE_MANAGES_ZK=false,表示不引用 hbase 自带的 zookeeper,用我们自己 安装的 保存退出
4.2、vi hbase-site.xml 增加以下配置:
hbase.rootdir
hdfs://myha01/HbaseData
hbase.cluster.distributed
true
hbase.zookeeper.quorum
hadoop01:2181,hadoop02:2181,hadoop03:2181
保存退出
4.3、修改 regionservers
vi regionservers
hadoop01
hadoop02
hadoop03
4.4、修改 backup-masters(自行创建),指定备用的主节点 该文件是不存在的,
先自行创建:vi backup-masters
hadoop02
4.5、最重要一步,要把 hadoop 的 hdfs-site.xml 和 core-site.xml 放到 hbase-1.2.6/conf 下
cp ~/apps/hadoop-2.7.6/etc/hadoop/core-site.xml ~/apps/hbase-1.2.6/conf/
cp ~/apps/hadoop-2.7.6/etc/hadoop/hdfs-site.xml ~/apps/hbase-1.2.6/conf/
5、 分发安装到各节点
scp -r hbase-1.2.6 hadoop@hadoop02:/home/hadoop/apps/
scp -r hbase-1.2.6 hadoop@hadoop03:/home/hadoop/apps/
6、 别忘了同步时间!!!!!!!! HBase 集群对于时间的同步要求的比 HDFS 严格,所以,集群启动之前千万记住要进行 时间同步,要求相差不要超过 30s
7、 配置环境变量 vi ~/.bashrc 添加两行: export HBASE_HOME=/home/hadoop/apps/hbase-1.2.6 export PATH=$PATH:$HBASE_HOME/bin 保存退出!!!别忘了执行 source ~/.bashrc,使配置生效
8、 启动(顺序别搞错了)
8.1、 先启动 zookeeper 集群 zkServer.sh start
8.2、 启动 hdfs 集群 start-dfs.sh
8.3、 启动 hbase 保证 ZooKeeper 集群和 HDFS 集群启动正常的情况下启动 HBase 集群 启动命令:start-hbase.sh
观看启动日志可以看到: 1、首先在命令执行节点启动 master 2、然后分别在 hadoop01,hadoop02,hadoop03 启动 regionserver 3、然后在 backup-masters 文件中配置的备节点上再启动一个 master 主进程
9、 查看启动是否正常,是否成功
9.1、 检查各进程是否启动正常 主节点和备用节点都启动 hmaster 进程 各从节点都启动 hregionserver 进程
按照对应的配置信息各个节点应该要启动的进程如上图所示
9.2、 通过访问浏览器页面,格式为”主节点:16010” http://hadoop01:16010/
hbase-daemon.sh start master
hbase-daemon.sh start regionserver