简洁的 hbase 集群安装

机器的 IP 与 hostname
192.168.66.3 master
192.168.66.4 slave01

1.安装zookeeper(参考kafka集群部署中的zookeeper安装)

2.配置时间同步

使用date命令查看,如果时间不同步,请设置时间同步

3.解压hbase安装包并授权(hadoop用户)

cd /usr/local/lib/hbase-1.2.6
tar zxvf hbase-hbase-1.2.6-bin.tar.gz
chown -R hadoop:hadoop hbase-hbase-1.2.6
chmod -R 755  hbase-hbase-1.2.6

4.配置环境变量

vim /etc/profile
    export HBASE_HOME=/usr/local/lib/hbase-1.2.6
    export PATH=$HBASE_HOME/bin:$PATH

#立即生效
source /etc/profile

5.修改配置文件hbase-env.sh

vim hbase-env.sh
export JAVA_HOME=/usr/local/jdk1.8.0_92
export HBASE_MANAGES_ZK=false #(若不使用hbase自带的zookeeper需设置成false)

6.修改配置文件hbase-site.xml


     
        hbase.rootdir
        hdfs://master:9000/hbase
        指定 hbase 在 HDFS 上存储的路径,保持与core-site.xml 中的hdfs路径一致
    
    
        hbase.cluster.distributed
        true
        指定 hbase 是分布式的
    
    
        hbase.zookeeper.quorum
        master:2181,slave01:2181
        指定 zk 的地址
    
    
        hbase.zookeeper.property.dataDir
        /home/sdnmuser/zookeeper-3.4.6/data
    
    
        hbase.master.maxclockskew
        150000
        时间同步允许的时间差
    
    
        hbase.master.info.port
        60010
           web ui 端口
    

7.设置regionservers

vi /home/hadoop/hbase-1.2.6/conf/regionservers
    master
    slave01

8.复制到其余节点上,并修改其余节点上的环境

cd /home/hadoop
scp -r hbase-1.2.6/ [email protected]:/usr/local/lib

修改192.168.66.4的  /etc/profile 环境,与第六步一样

9.配置master 到其余节点的免密登录

ssh-keygen
# 一路回车

运行结束以后, 默认在 ~/.ssh目录生成两个文件: 
id_rsa #私钥 
id_rsa.pub #公钥

复制到需要登录的服务器上
scp -r id_rsa.pub [email protected]:/home/hadoop


登录到服务器上导入公钥
ssh [email protected]
#输入指令
cat id_rsa.pub >> ~/.ssh/authorized_keys

10.启动hbase集群

到master 节点的机器上
su - hadoop #切换到hadoop用户
cd /usr/local/lib/hbase-1.2.6/bin
# 启动
sh start-hbase.sh

11.查看web ui 界面

  #查看
  192.168.66.3:60010 

你可能感兴趣的:(简洁的 hbase 集群安装)