大数据集群搭建(七)——Hbase-2.2.3安装

Hbase-2.2.3安装

  1. 下载hbase-2.2.3压缩包
  2. 将文件上传到dn1节点~/pkg目录下
  3. 执行以下命令,分别在dn1、dn2、dn3三台节点安装
#解压到/opt目录
tar -zxvf hbase-2.2.3-bin.tar.gz -C /opt

#创建hbase的软连接
cd /opt
ln -s hbase-2.2.3/ hbase

#在hbase-env.sh中添加以下内容,然后保存
export JAVA_HOME=/usr/java/jdk1.8.0_241-amd64
export HBASE_MANAGES_ZK=false

#将解压后的hbase目录分发到dn2和dn3
scp -r /opt/hbase dn2:/opt/hbase
scp -r /opt/hbase dn3:/opt/hbase

#在dn1、dn2、dn3分别配置环境变量
vim /etc/profile

#在末尾增加以下内容,然后保存
export HBASE_HOME=/opt/hbase
export PATH=$PATH:$HBASE_HOME/bin
export PATH=$PATH:$HBASE_HOME/sbin

#在三个节点分别使配置生效
source /etc/profile

  1. 配置hbase-site.xml
vim /opt/hbase/conf/hbase-site.xml

#在中间,添加以下内容
<!--  这个目录是region服务器共享的目录,用来持久存储HBase的数据,默认值为:${hbase.tmp.dir}/hbase,如果不修改这个配置,数据将会在集群重启时丢失。 -->
    <property>
        <name>hbase.rootdir</name>
        <!-- hadoop引入JQM负载均衡时,这里配置dfs.nameservices指定的集群逻辑名称 -->
        <value>hdfs://mycluster/hbase</value>
        <!-- 指定Hadoop master服务器的写法,hbase监听hdfs默认的端口是9000,这里的配置端口只能写9000 -->
        <!--<value>hdfs://hadoop.master01:9000/hbase</value>-->
    </property>
    
    <!-- 指定hbase集群为分布式集群 -->
    <property>
        <name>hbase.cluster.distributed</name>
        <value>true</value>
    </property>
    
    <!-- 指定zookeeper集群,有多个用英文逗号分隔 -->
    <property>
        <name>hbase.zookeeper.quorum</name>
        <value>dn1:2181,dn2:2181,dn3:2181</value>
    </property>
    <!-- Zookeeper元数据快照的存储目录(需要和Zookeeper的zoo.cfg 配置文件中的属性一致)  -->
    <property>
        <name>hbase.zookeeper.property.dataDir</name>
        <value>/opt/data/zookeeper/data</value>
    </property>
    <!-- 指定HBase Master web页面访问端口,默认端口号16010 -->
    <property>
        <name>hbase.master.info.port</name>
        <value>16010</value>
    </property>
    <!-- 指定HBase RegionServer web页面访问端口,默认端口号16030 -->
	<property>
		<name>hbase.regionserver.info.port</name>
		<value>16030</value>
	</property>
    <!-- 解决启动HMaster无法初始化WAL的问题 -->
<property>
        <name>hbase.unsafe.stream.capability.enforce</name>
        <value>false</value>
</property>

将配置好的hbase-site.xml文件发送到dn2和dn3节点

scp -r ./hbase-site.xml dn2:`pwd`
scp -r ./hbase-site.xml dn3:`pwd`
  1. 将/opt/hadoop/etc/hadoop/目录下的core-site.xml及hdfs-site.xml文件复制到/opt/hbase/conf下
#分别在dn1、dn2、dn3三台节点上做复制
cp /opt/hadoop/etc/hadoop/core-site.xml /opt/hbase/conf/core-site.xml
cp /opt/hadoop/etc/hadoop/hdfs-site.xml /opt/hbase/conf/hdfs-site.xml
  1. 启动hbase服务
start-hbase.sh
  1. 查看进程,dn1有Hmaster,dn2和dn3有HRegionServer,启动成功

大数据集群搭建(七)——Hbase-2.2.3安装_第1张图片
大数据集群搭建(七)——Hbase-2.2.3安装_第2张图片
大数据集群搭建(七)——Hbase-2.2.3安装_第3张图片

  1. 进入hbase,成功
hbase shell

大数据集群搭建(七)——Hbase-2.2.3安装_第4张图片

  1. hbase退出命令为exit,hbase服务终止命令为stop-hbase.sh

你可能感兴趣的:(大数据集群搭建(七)——Hbase-2.2.3安装)