Zookeeper
是一个开源的分布式的,为分布式应用提供协调服务的Apache
项目。
Zookeeper
从设计模式角度来理解:是一个基于观察者模式设计的分布式服务管理框架,它负责存储和管理大家都关心的数据,然后接受观察者的注册,一旦这些数据的状态发生变化,Zookeeper
就将负责通知已经在Zookeeper
上注册的那些观察者做出相应的反应,从而实现集群中类似Master/Slave
管理模式。
Zookeeper
是由一个领导者(leader
),多个跟随者(follower
)组成的集群。Leader
负责进行投票的发起和决议,更新系统状态;Follower
用于接收客户请求并向客户端返回结果,在选举Leader
过程中参与投票Zookeeper
集群就能正常服务。server
保存一份相同的数据副本,client
无论连接到哪个server
,数据都是一致的。client
的更新请求按其发送顺序依次执行。client
能读到最新数据。ZooKeeper
数据模型的结构与Unix
文件系统很类似,整体上可以看作是一棵树,每个节点称做一个ZNode
。每一个ZNode
默认能够存储1MB
的数据,每个ZNode
都可以通过其路径唯一标识。
提供的服务包括:统一命名服务、统一配置管理、统一集群管理、服务器节点动态上下线、软负载均衡等。
①统一命名服务
在分布式环境下,经常需要对应用/服务进行统一命名,便于识别不同服务。
分布式环境下,配置文件管理和同步是一个常见问题。一个集群中,所有节点的配置信息是一致的,比如Hadoop
集群。对配置文件修改后,希望能够快速同步到各个节点上。
配置管理可交由ZooKeeper
实现。可将配置信息写入ZooKeeper
上的一个Znode
,各个节点监听这个Znode
,一旦Znode
中的数据被修改,ZooKeeper
将通知各个节点。
③统一集群管理
分布式环境中,实时掌握每个节点的状态是必要的,可根据节点实时状态做出一些调整。
统一集群管理可交由ZooKeeper
实现,可将节点信息写入ZooKeeper
上的一个Znode
,监听这个Znode
可获取它的实时状态变化。
典型应用:HBase
中Master
状态监控与选举。
④服务器动态上下线
客户端能实时洞察到服务器上下线的变化
⑤软负载均衡
在Zookeeper
中记录每台服务器的访问数,让访问数最少的服务器去处理最新的客户端请求
①前提:安装Jdk
和下载zookeeper-3.4.10.tar.gz
②复制配置文件
[root@hadoop100 conf]$ cp zoo_sample.cfg zoo.cfg
③修改dataDir
[root@hadoop100 conf]$ vim zoo.cfg
dataDir=/opt/module/zookeeper-3.4.10/zkData
[root@hadoop100 zookeeper-3.4.10]$ mkdir zkData
④启动Zookeeper
[root@hadoop100 conf]$ bin/zkServer.sh start
⑤查看ZooKeeper
启动状态
[root@hadoop100 conf]$ bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper-3.4.10/bin/../conf/zoo.cfg
Mode: standalone
Zookeeper
中的配置文件zoo.cfg
中参数含义解读如下:
Zookeeper
使用的基本时间,服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个tickTime
时间就会发送一个心跳,时间单位为毫秒。它用于心跳机制,并且设置最小的session
超时时间为两倍心跳时间。(session
的最小超时时间是2*tickTime
)Follower
跟随者服务器与Leader
领导者服务器之间初始连接时能容忍的最多心跳数(tickTime
的数量),用它来限定集群中的Zookeeper
服务器连接到Leader
的时限Leader
与Follower
之间的最大响应时间单位,假如响应超过syncLimit * tickTime
,Leader
认为Follwer
死掉,从服务器列表中删除Follwer
Zookeeper
中的数据①在zkData目录下创建一个myid的文件
[root@hadoop100 zkData]$ vim myid
0
②分发该文件并修改值为1、2
[root@hadoop100 conf]$ xsync myid
③修改配置文件zoo.cfg
并分发到其他服务器
[root@hadoop100 conf]$ vim zoo.cfg
#######################cluster##########################
server.0=hadoop100:2888:3888
server.1=hadoop101:2888:3888
server.2=hadoop102:2888:3888
配置参数说明server.A=B:C:D
:
A
:表示这个是第几号服务器,即配置的myid
B
:服务器的地址
C
:服务器Follower
与集群中的Leader
服务器交换信息的端口
D
:执行选举时服务器相互通信的端口
④分别启动Zookeeper
[root@hadoop100 zookeeper-3.4.10]$ bin/zkServer.sh start
[root@hadoop101 zookeeper-3.4.10]$ bin/zkServer.sh start
[root@hadoop102 zookeeper-3.4.10]$ bin/zkServer.sh start
⑤查看集群状态
[root@hadoop100 zookeeper-3.4.10]$ bin/zkServer.sh status
JMX enabled by default
Using config: /opt/module/zookeeper-3.4.10/bin/../conf/zoo.cfg
Mode: follower
[root@hadoop101 zookeeper-3.4.10]$ bbin/zkServer.sh status
JMX enabled by default
Using config: /opt/module/zookeeper-3.4.10/bin/../conf/zoo.cfg
Mode: leader
[root@hadoop102 zookeeper-3.4.10]$ bin/zkServer.sh status
JMX enabled by default
Using config: /opt/module/zookeeper-3.4.10/bin/../conf/zoo.cfg
Mode: follower
命令基本语法 | 功能描述 |
---|---|
help | 显示所有操作命令 |
ls path [watch] | 使用ls命令来查看当前znode中所包含的内容 |
ls path [watch] | 查看当前节点数据并能看到更新次数等数据 |
create | 普通创建 -s 含有序列 -e 临时(重启或者超时消失) |
get path [watch] | 获得节点的值 |
set | 设置节点的具体值 |
stat | 查看节点状态 |
delete | 删除节点 |
rmr | 递归删除节点 |
①启动客户端
[root@hadoop100 zookeeper-3.4.10]$ bin/zkCli.sh
②显示所有操作命令
[zk: localhost:2181(CONNECTED) 0] help
③查看当前znode中所包含的内容
[zk: localhost:2181(CONNECTED) 1] ls /
[zookeeper]
④查看当前节点详细数据
[zk: localhost:2181(CONNECTED) 2] ls2 /
[zookeeper]
cZxid = 0x0
ctime = Thu Jan 01 08:00:00 CST 1970
mZxid = 0x0
mtime = Thu Jan 01 08:00:00 CST 1970
pZxid = 0x0
cversion = -1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 0
numChildren = 1
⑤创建普通节点
[zk: localhost:2181(CONNECTED) 3] create /sanguo "history"
Created /sanguo
⑥获得节点的值
[zk: localhost:2181(CONNECTED) 5] get /sanguo
history
cZxid = 0x100000003
ctime = Wed Aug 29 00:03:23 CST 2018
mZxid = 0x100000003
mtime = Wed Aug 29 00:03:23 CST 2018
pZxid = 0x100000004
cversion = 1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 7
numChildren = 1
⑦修改节点数据值
[zk: localhost:2181(CONNECTED) 6] set /sanguo "wuchenen"
⑧删除节点
[zk: localhost:2181(CONNECTED) 7] delete /sanguo
⑨递归删除节点
[zk: localhost:2181(CONNECTED) 8] rmr /sanguo
⑩查看节点状态
[zk: localhost:2181(CONNECTED) 9] stat /sanguo
cZxid = 0x100000003
ctime = Wed Aug 29 00:03:23 CST 2018
mZxid = 0x100000011
mtime = Wed Aug 29 00:21:23 CST 2018
pZxid = 0x100000014
cversion = 9
dataVersion = 1
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 4
numChildren = 1
引入依赖:
<dependency>
<groupId>org.apache.zookeepergroupId>
<artifactId>zookeeperartifactId>
<version>3.4.10version>
dependency>
初始化ZooKeeper对象:
public class ZKTest {
private static String connectString = "192.168.192.100:2181";
private static int sessionTimeout = 2000;
private ZooKeeper zkClient = null;
@Before
public void init() throws IOException {
zkClient = new ZooKeeper(connectString, sessionTimeout, event -> {
});
}
}
创建子节点:
@Test
public void create() throws KeeperException, InterruptedException {
zkClient.create("/jinguo", "simayu".getBytes(),
ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
}
查看子节点信息:
@Test
public void chlidren() throws KeeperException, InterruptedException {
List<String> children = zkClient.getChildren("/", true);
children.forEach(child -> System.out.println(child));
}
判断Znode
是否存在
@Test
public void exist() throws Exception {
Stat stat = zkClient.exists("/eclipse", false);
System.out.println(stat == null ? "not exist" : "exist");
}