ZooKeeper与HBase集群搭建

 一、ZooKeeper安装配置

(1)解压ZooKeeper的压缩包到指定位置。

(2)复制conf中文件zoo_sample.cfg为zoo.cfg,cp zoo_sample.cfg zoo.cfg

(3)编辑zoo.cfg 修改dataDir=/usr/local/Zookeepdata 新增

server.1=hadoop0:2888:3888

server.2=hadoop1:2888:3888

server.3=hadoop2:2888:3888

(4)创建文件夹Zookeepdata: mkdir /usr/local/Zookeepdata ,在Zookeepdata目录下,创建文件myid,值为1:echo 1 > myid

(5)用scp命令分发zk文件夹到集群

(6)启动ZooKeeper集群  

在ZooKeeper集群的每个结点上,执行启动ZooKeeper服务的脚本:.r/bin/zkServer.sh start

二、HBase安装配置

(1)解压HBase的压缩包到指定位置。

(2)编辑hbase-env.sh文件

(3)编辑hbase-site.xml


hbase.rootdir
         hdfs://192.168.42.5:9000/hbase



        hbase.master
master



        hbase.cluster.distributed
        true



hbase.zookeeper.property.clientPort
        2181



         hbase.zookeeper.quorum
        192.168.42.5:2181,192.168.42.4:2181,192.168.42.6:2181



        zookeeper.session.timeout
         60000000



         dfs.support.append
true

(4)更改 regionservers

(5)环境变量配置

export JAVA_HOME=/usr/local/jdk1.8.0_191
export  CLASSPATH=$:CLASSPATH:$JAVA_HOME/lib/
export HADOOP_HOME=/usr/local/hadoop-2.7.6
export SCALA_HOME=/usr/local/scala-2.11.12
export SPARK_HOME=/usr/local/spark-2.2.3-bin-hadoop2.7
export ZK_HOME=/usr/local/zookeeper-3.4.10
export HBASE_HOME=/usr/local/hbase-1.4.4
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$JAVA_HOME/bin:$SCALA_HOME/bin:$SPARK_HOME/bin:$ZK_HOME/bin:$HBASE_HOME/bin

环境变量配置文件拷贝至其他节点上

scp -r /etc/profile root@hadoop03:/etc/
scp -r /etc/profile root@hadoop01:/etc/

(6)HBase拷贝到其他节点上

scp -r /usr/local/hbase-1.4.4 root@hadoop03:/usr/local/
scp -r /usr/local/hbase-1.4.4 root@hadoop01:/usr/local/

(7)启动HBAse

先启动Hadoop(在主节点启动即可)

再启动ZooKeeper(每个节点都要启动)

再启动HBase(在主节点启动即可)

三、参考文献

https://www.cnblogs.com/chenweida/p/10510955.html

https://blog.csdn.net/M_SIGNALs/article/details/52948867

你可能感兴趣的:(大数据)