hbase集群搭建安装部署

文章内容输出来源:拉勾教育Java高薪训练营;

环境介绍

服务器: 阿里云Centos7.4

hbase版本: hbase-1.3.1-bin.tar.gz

下载地址:http://archive.apache.org/dist/hbase/1.3.1/

前置条件

  • 需要完成hadoop集群搭建,参考上文: hadoop搭建全过程.
  • 需要在每个节点安装好zookeeper

安装HBase

  • 解压安装包到指定的规划目录
tar -zxvf hbase-1.3.1-bin.tar.gz -C /home/teacher/opt/module/
  • 需要把hadoop中的配置core-site.xml 、hdfs-site.xml拷贝到hbase安装目录下的conf文件夹中
cd /home/teacher/opt/module/hadoop-2.7.2/etc/hadoop

cp core-site.xml hdfs-site.xml /home/teacher/opt/module/hbase-1.3.1/conf/
  • 修改conf目录下配置文件
  1. 修改 hbase-env.sh
vi  hbase-env.sh
#添加java环境变量
export JAVA_HOME=/opt/module/jdk1.8.0_231
#指定使用外部的zk集群
export HBASE_MANAGES_ZK=FALSE
  1. 修改 hbase-site.xml
vi hbase-site.xml
<configuration>
	
	<property>
		<name>hbase.rootdirname>
		<value>hdfs://teacher1:9000/hbasevalue>
	property>
	
	<property>
		<name>hbase.cluster.distributedname>
		<value>truevalue>
	property>
	
	<property>
		<name>hbase.zookeeper.quorumname>
		<value>teacher1:2181,teacher2:2181,teacher3:2181value>
	property>
configuration>
  1. 修改 regionservers
vi regionservers
#指定regionserver节点
teacher1
teacher2
teacher3
  1. hbase的conf目录下创建文件backup-masters
vi backup-masters
teacher1
  • 分发hbase目录和环境变量到其他节点
scp -r hbase-1.3.1 teacher1:/home/teacher/opt/module/
scp -r hbase-1.3.1 teacher3:/home/teacher/opt/module/
  • 配置hbase的环境变量(三台服务器都要配置)
vi /etc/profile
export HBASE_HOME=/opt/bigdata/hbase
export PATH=$PATH:$HBASE_HOME/bin
source /etc/profile

集群启动

*前提条件:先启动hadoop和zk集群

启动hbase

start-hbase.sh

启动hbase停止

stop-hbase.sh

测试结果

http://ip地址:16010/master-status#baseStats

hbase集群搭建安装部署_第1张图片

写在最后

工作几年,一直都没有去体系化的学习,很多东西没有复杂的工作场景经验,去年综合几家机构,最后还是决定报了拉勾的高薪训练营,在这里也是实实在在的学习到了很多,学完掌握程度也比之前深了很多,而且还有定期的内推,多了更多的机会,真的对我有了很大的帮助提升。

你可能感兴趣的:(hadoop,hadoop,hbase)