Zookeeper维护一个类似文件系统的数据结构:
每个子目录项如 NameService 都被称作为 znode(目录节点),和文件系统一样,我们能够自由的增加、删除znode,在一个znode下增加、删除子znode,唯一的不同在于znode是可以存储数据的。
有四种类型的znode:
PERSISTENT-持久化目录节点
客户端与zookeeper断开连接后,该节点依旧存在
PERSISTENT_SEQUENTIAL-持久化顺序编号目录节点
客户端与zookeeper断开连接后,该节点依旧存在,只是Zookeeper给该节点名称进行顺序编号
EPHEMERAL-临时目录节点
客户端与zookeeper断开连接后,该节点被删除
EPHEMERAL_SEQUENTIAL-临时顺序编号目录节点
客户端与zookeeper断开连接后,该节点被删除,只是Zookeeper给该节点名称进行顺序编号
2、 监听通知机制
客户端注册监听它关心的目录节点,当目录节点发生变化(数据改变、被删除、子目录节点增加删除)时,zookeeper会通知客户端。
就这么简单,下面我们看看Zookeeper能做点什么呢?
zookeeper功能非常强大,可以实现诸如分布式应用配置管理、统一命名服务、状态同步服务、集群管理等功能,我们这里拿比较简单的分布式应用配置管理为例来说明。
假设我们的程序是分布式部署在多台机器上,如果我们要改变程序的配置文件,需要逐台机器去修改,非常麻烦,现在把这些配置全部放到zookeeper上去,保存在 zookeeper 的某个目录节点中,然后所有相关应用程序对这个目录节点进行监听,一旦配置信息发生变化,每个应用程序就会收到 zookeeper 的通知,然后从 zookeeper 获取新的配置信息应用到系统中。
如上,你大致应该了解zookeeper是个什么东西,大概能做些什么了,我们马上来学习下zookeeper的安装及使用,并开发一个小程序来实现zookeeper这个分布式配置管理的功能。
Step1:配置JAVA环境,检验环境:java -version
Step2:下载并解压zookeeper
-
# cd /usr/local
-
# wget http:
//mirror.bit.edu.cn/apache/zookeeper/stable/zookeeper-3.4.12.tar.gz
-
# tar -zxvf zookeeper-
3.4.12.tar.gz
-
# cd zookeeper-
3.4.12
Step3:重命名配置文件zoo_sample.cfg
# cp conf/zoo_sample.cfg conf/zoo.cfg
Step4:启动zookeeper
# bin/zkServer.sh start
Step5:检测是否成功启动,用zookeeper客户端连接下服务端
# bin/zkCli.sh
1、使用 ls 命令来查看当前 ZooKeeper 中所包含的内容
2、创建一个新的 znode ,使用 create /zkPro myData
3、再次使用 ls 命令来查看现在 zookeeper 中所包含的内容:
4、下面我们运行 get 命令来确认第二步中所创建的 znode 是否包含我们所创建的字符串:
5、下面我们通过 set 命令来对 zk 所关联的字符串进行设置:
6、下面我们将刚才创建的 znode 删除
使用Java API操作zookeeper需要引用下面的包
下面我们来实现上面说的分布式配置中心:
1、在zookeeper里增加一个目录节点,并且把配置信息存储在里面
2、启动两个zookeeper客户端程序,代码如下所示
-
import java.util.concurrent.CountDownLatch;
-
import org.apache.zookeeper.WatchedEvent;
-
import org.apache.zookeeper.Watcher;
-
import org.apache.zookeeper.Watcher.Event.EventType;
-
import org.apache.zookeeper.Watcher.Event.KeeperState;
-
import org.apache.zookeeper.ZooKeeper;
-
import org.apache.zookeeper.data.Stat;
-
-
/**
-
* 分布式配置中心demo
-
* @author
-
*
-
*/
-
public
class ZooKeeperProSync implements Watcher {
-
-
private
static CountDownLatch connectedSemaphore =
new CountDownLatch(
1);
-
private
static ZooKeeper zk =
null;
-
private
static Stat stat =
new Stat();
-
-
public static void main(String[] args) throws Exception {
-
//zookeeper配置数据存放路径
-
String path =
"/username";
-
//连接zookeeper并且注册一个默认的监听器
-
zk =
new ZooKeeper(
"192.168.31.100:2181",
5000,
//
-
new ZooKeeperProSync());
-
//等待zk连接成功的通知
-
connectedSemaphore.await();
-
//获取path目录节点的配置数据,并注册默认的监听器
-
System.out.println(
new String(zk.getData(path,
true, stat)));
-
-
Thread.sleep(Integer.MAX_VALUE);
-
}
-
-
public void process(WatchedEvent event) {
-
if (KeeperState.SyncConnected == event.getState()) {
//zk连接成功通知事件
-
if (EventType.None == event.getType() &&
null == event.getPath()) {
-
connectedSemaphore.countDown();
-
}
else
if (event.getType() == EventType.NodeDataChanged) {
//zk目录节点数据变化通知事件
-
try {
-
System.out.println(
"配置已修改,新值为:" +
new String(zk.getData(event.getPath(),
true, stat)));
-
}
catch (Exception e) {
-
}
-
}
-
}
-
}
-
}
两个程序启动后都正确的读取到了zookeeper的/username目录节点下的数据'qingfeng'
3、我们在zookeeper里修改下目录节点/username下的数据
修改完成后,我们看见两个程序后台都及时收到了他们监听的目录节点数据变更后的值,如下所示
本例搭建的是伪集群模式,即一台机器上启动三个zookeeper实例组成集群,真正的集群模式无非就是实例IP地址不同,搭建方法没有区别
Step1:配置JAVA环境,检验环境:java -version
Step2:下载并解压zookeeper
-
# cd /usr/local
-
# wget http:
//mirror.bit.edu.cn/apache/zookeeper/stable/zookeeper-3.4.12.tar.gz
-
# tar -zxvf zookeeper-
3.4.12.tar.gz
-
# cd zookeeper-
3.4.12
Step3:重命名 zoo_sample.cfg文件
# cp conf/zoo_sample.cfg conf/zoo-1.cfg
Step4:修改配置文件zoo-1.cfg,原配置文件里有的,修改成下面的值,没有的则加上
-
# vim conf/zoo-
1.cfg
-
dataDir=/tmp/zookeeper-
1
-
clientPort=
2181
-
server.1=
127.0.0.1:
2888:
3888
-
server.2=
127.0.0.1:
2889:
3889
-
server.3=
127.0.0.1:
2890:
3890
配置说明
Step4:再从zoo-1.cfg复制两个配置文件zoo-2.cfg和zoo-3.cfg,只需修改dataDir和clientPort不同即可
-
# cp conf/zoo-
1.cfg conf/zoo-
2.cfg
-
# cp conf/zoo-
1.cfg conf/zoo-
3.cfg
-
# vim conf/zoo-
2.cfg
-
dataDir=/tmp/zookeeper-
2
-
clientPort=
2182
-
# vim conf/zoo-
2.cfg
-
dataDir=/tmp/zookeeper-
3
-
clientPort=
2183
Step5:标识Server ID
创建三个文件夹/tmp/zookeeper-1,/tmp/zookeeper-2,/tmp/zookeeper-2,在每个目录中创建文件myid 文件,写入当前实例的server id,即1.2.3
-
# cd /tmp/zookeeper-
1
-
# vim myid
-
1
-
# cd /tmp/zookeeper-
2
-
# vim myid
-
2
-
# cd /tmp/zookeeper-
3
-
# vim myid
-
3
Step6:启动三个zookeeper实例
-
# bin/zkServer.sh start conf/zoo-
1.cfg
-
# bin/zkServer.sh start conf/zoo-
2.cfg
-
# bin/zkServer.sh start conf/zoo-
3.cfg
Step7:检测集群状态,也可以直接用命令“zkCli.sh -server IP:PORT”连接zookeeper服务端检测
至此,我们对zookeeper就算有了一个入门的了解,当然zookeeper远比我们这里描述的功能多,比如用zookeeper实现集群管理,分布式锁,分布式队列,zookeeper集群leader选举等等
推荐阅读:https://www.roncoo.com/course/view/255bac222b1b4300b42838b58fea3a2e
文章来源:https://my.oschina.net/u/3796575/blog/1845035