Hadoop2.0集群、Hive工具、Zookeeper集群、Kafka集群、Spark集群、Hbase集群、Sqoop工具、Flume工具搭建总结(三)

七、Hbase集群

-----------安装准备--------------------------------------

首先,要有一个HDFS集群,并正常运行; regionserver应该跟hdfs中的datanode在一起

其次,还需要一个zookeeper集群,并正常运行

然后,安装HBASE

角色分配如下:

spark1:  namenode  datanode  regionserver  hmaster  zookeeper

spark2:  datanode   regionserver  zookeeper

spark3:  datanode   regionserver  zookeeper

-----------安装hbase------------------------------------------

解压hbase安装包

-----------修改hbase-env.sh-----------------------------

export JAVA_HOME=/usr/java/latest

export HBASE_MANAGES_ZK=false

-----------修改hbase-site.xml--------------------------

        

                hbase.rootdir

                hdfs://spark1:9000/hbase

        

        

                hbase.cluster.distributed

                true

        

        

                hbase.zookeeper.quorum

                spark1:2181,spark2:2181,spark3:2181

        

-----------修改 regionservers-------------------------

增加slave的集群  vi /usr/local/hbase/regionservers

spark1

spark2

spark3

-----------复制hbse到其他节点-------------------------

[root@spark1 local]# scp -r hbase root@spark2:/usr/local/

 

-----------将配置好的hbase复制到每一个节点并同步时间-------------------

 

-----------启动所有hbase,前提需要启动ZooKeeper和HDFS-------------------

 

-----------启动hbase集群----------------------------------------

 

bin/start-hbase.sh

./hbase-daemon.sh start regionserver --》手动启动regionserver进程

启动完后,还可以在集群中找任意一台机器启动一个备用的master

hbase-daemon.sh start master

 

 

停止:

bin/stop-hbase.sh

 

bin/hbase-daemon.sh start master

 

新启的这个master会处于backup状态

 

 

 

进入hbase的shell客户端:

在hbse根目录-->/bin/hbase hell

-----------通过浏览器访问Hbase管理页面----------------------------------------

http://spark1:16010

 

 

 

八、Sqoop工具

 

你可能感兴趣的:(大数据开发)