Hbase集群安装指南

Hbase集群安装指南

HBase – Hadoop Database,是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBase技术可在廉价PC Server上搭建起大规模结构化存储集群。

Hadoop HDFS为HBase提供了高可靠性的底层存储支持,Hadoop MapReduce为HBase提供了高性能的计算能力,Zookeeper为HBase提供了稳定服务和failover机制。

Pig和Hive还为HBase提供了高层语言支持,使得在HBase上进行数据统计处理变的非常简单。 Sqoop则为HBase提供了方便的RDBMS数据导入功能,使得传统数据库数据向HBase中迁移变的非常方便。

Hbase基于Hadoop,所以安装Hbase之前,需要安装好Hadoop集群,包含Java、ssh免密登录、Zookeeper、Hadoop。

基础配置

安装Hadoop之间,给各节点创建用户,尽量不要在root用户下进行环境搭建。
涉及到集群部署,虚拟机或服务器都被称为主节点、子节点。基础配置,集群中每个节点都需要做。

  1. /etc/hosts和/etc/hostname配置

    配置hostname时,不要使用“.”“_"等特殊字符,这些字符会导致hadoop启动失败。

    hosts配置格式为集群机器ip 机器hostname,比如:

        192.168.100.10 hadoopa
        192.168.100.11 hadoopb
        192.168.100.12 hadoopc
    
  2. ssh免密登录配置

    • 生成ssh公钥
    ssh-keygen -t rsa
    

    当前用户Home目录下的.ssh目录会生成公钥文件(id_rsa.pub)和私钥文件(id_rsa)

    • 分发公钥

      将生成的公钥分发给其他节点,本机也要复制一份。

      进入个人/home/.ssh下执行如下命令:

    ssh-copy-id xxx(节点名称)
    

Java安装与环境变量配置

安装jdk 1.8
yum -y install java-1.8.0-openjdk*
查询java安装路径
ls -l rt /usr/bin/java 

ls -l rt  /etc/alternatives/java

Zookeeper安装

安装Zookeeper之间需要先安装Java

下载解压
wget https://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/zookeeper-3.4.14/zookeeper-3.4.14.tar.gz
tar -zxvf zookeeper-3.4.14.tar.gz 
cp zookeeper-3.4.14 /usr/local/zookeeper -r
配置conf文件夹下zoo.cfg
cp zoo_sample.cfg zoo.cfg
修改或新增内容
dataDir=/usr/local/zookeeper/data

server.1=192.168.1.91:2888:3888

server.2=192.168.1.92:2888:3888

server.3=192.168.1.93:2888:3888
在/usr/local/zookeeper/data下创建文件并写入内容
touch myid
echo "1">>myid
复制zookeeper到其他节点,主节点名称hadoopa, 目标节点名称hadoopb
scp -r /usr/local/zookeeper hadoopb:/usr/local/
修改hadoopb节点文件myid
echo "2">myid
复制到其他节点步骤一致。
启动,停止和查看状态

各个节点都要执行启动或者停止命令

/usr/local/zookeeper-3.4.6/bin/zkServer.sh start
/usr/local/zookeeper-3.4.6/bin/zkServer.sh stop
/usr/local/zookeeper-3.4.6/bin/zkServer.sh status

zookeeper启动之后会自动选择leader和follwer

Hadoop安装

下载

wget http://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.1.2/hadoop-3.1.2.tar.gz 

解压到 个人/home/hadoop下

tar -zxvf download/hadoop-3.1.2.tar.gz  

文件配置

配置文件都在hadoop解压目录的etc/hadoop/下

  1. hadoop-env.sh配置

    找到 export JAVA_HOME= .....这行改为我们实际配置的 JAVA_HOME 路径,并去掉 # 号注释

  2. core-site.xml配置

    configuration标签里添加如下配置,其中hadoopa为主机名,xiaoming为用户文件夹

    
        fs.defaultFS
        hdfs://hadoopa:9000
    
    
        hadoop.tmp.dir
        /home/xiaoming/hadoopdata
    
    
  3. hdfs-site.xml配置

    指定 HDFS 副本数量

    注意:Hadoop3.1的namenode节点端口从50070改为9870端口了

        
           
               dfs.replication
               2
           
        
    
  4. mapred-site.xml配置

    指定 MapReduce运行在yarn上

         
             
                mapreduce.framework.name
                yarn
            
        
    
  5. yarn-site.xml配置

    指定 ResourceManager 服务节点

        
           
                yarn.resourcemanger.hostname
                hadoopa
            
            
                 yarn.nodemanager.aux-services
                 mapreduce_shuffle
             
         
    
  6. workers配置

    之前我使用hadoop-2.6 这个文件名为 slaves ,现在3.0版本为 workers

    在此文件添加 我们作为DataNode节点的两台台机器的主机名,如果我们只将hadoopa 作为 namenode不做为datanode的话,就不用在此文件中添加hadoopa 了,我这里三台机器都做为 DataNode 节点

    hadoopa
    hadoopb
    hadoopc
    

分发配置完成的Hadoop文件夹

将Hadoop发到另外两台机器

scp -r /home/用户名/hadoop/  用户名@hadoopb:/home/用户名/
scp -r /home/用户名/hadoop/  用户名@hadoopc:/home/用户名/

配置Hadoop 环境变量

三台机器都需要配置

root 账户下执行:vi /etc/profile

export HADOOP_HOME=/home/xiaoming/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

然后保存退出

执行 source /etc/profile 使配置生效

初始化操作

完成以上步骤后,需要先格式化文件系统

NameNode 节点上执行,我上面的配置是将 hadoopa 作为 NameNodde 节点,hadoopb,hadoopc 作为 DataNode 节点

在 hadoopa 下执行格式化

普通账户下 执行:hdfs namenode -format

启动hadoop

start-all.sh 启动Hadoop集群

stop-all.sh 关闭Hadoop集群

验证hadoop

在namenode节点下执行jps,可以看到如下进程:NodeManager、ResourceManager、DataNode、NameNode、SecondaryNameNode。

在datanode节点下执行jps,可以看到如下进程:DataNode、NodeManager

如果发现缺少进程,进入logs文件夹,查看相应进程对应的日志文件。

通过浏览器访问WEB UI:http://ip:9870

Hbase安装

版本对应关系:Hadoop 3.1.2 \ Hbase-2.2.x \ ZooKeeper 3.4.x

版本不对应会导致软件无法正常工作。

没有做特殊说明,操作都是在普通用户下进行。

下载及安装

wget https://mirrors.tuna.tsinghua.edu.cn/apache/hbase/2.2.0/hbase-2.2.0-bin.tar.gz

将下载的文件解压到用户目标目录,这里是/home/xiaoming/

tar xvzf hbase-2.2.0-bin.tar.gz /home/xiaoming/

管理员用户下设置环境变量

vi /etc/profile

# 在 /etc/profile 文件末尾添加如下内容
export HBASE_HOME=/home/xiaoming/hbase-2.2.0
export PATH=$HBASE_HOME/bin:$PATH
 
# 使配置生效
source /etc/profile

配置Hbase

  1. 修改hbase-2.2.0/conf下hbase-env.sh

        export JAVA_HOME=/usr/lib/jvm/java-1.8.0
        #禁用Hbase自带的zookeeper
        export HBASE_MANAGES_ZK=false
    
  2. 修改hbase-2.2.0/conf下hbase-site.xml

        
        
            
                hbase.rootdir
                hdfs://hadoopa:9000/hbase
            
            
            
                hbase.cluster.distributed
                true
            
            
            
                hbase.zookeeper.quorum
                192.168.100.10:2181,192.168.100.11:2181,192.168.100.12:2181
            
            
                hbase.zookeeper.property.dataDir
                /home/xiaoming/data/zookeeper
            
            
                hbase.unsafe.stream.capability.enforce
                false
            
          
    
  3. 修改hbase-2.2.0/conf下regionservers

    添加节点hostname

 hadoopa
 hadoopb
 hadoopc
  1. 拷贝hadoop配置文件core-site.xmlhdfs-site.xml到hbase-2.2.0/conf下

        cp $HADOOP_HOME/etc/hadoop/core-site.xml $HBASE_HOME/conf/
        cp $HADOOP_HOME/etc/hadoop/hdfs-site.xml $HBASE_HOME/conf/
    
  2. 分发Hbase文件到其他节点

        scp -r hbase-2.2.0/ hadoopb:/home/xiaoming/
        scp -r hbase-2.2.0/ hadoopc:/home/xiaoming/
    

启动Hbase

在启动Hbase之前,先启动zookeeper和hadoop。

在哪个节点上输入启动命令start-hbase.sh,哪个节点就是Hmaster。启动完成后可以通过jps查看进程。

Hmaster节点进程:

SecondaryNameNode
NodeManager
ResourceManager
HRegionServer
Jps
DataNode
QuorumPeerMain
HMaster
NameNode

子节点进程:

QuorumPeerMain
HRegionServer
DataNode
Jps
NodeManager

启动完成后,可以通过WEB UI查看Hbase集群情况,http://ip:16010

如果发现子节点启动HRegionServer失败,通常是因为子节点系统的时间不同步造成的。调整系统时间即可解决。

你可能感兴趣的:(Hbase集群安装指南)