学习视频
【尚硅谷】2021新版Zookeeper 3.5.7版本教程
集数:9—19
学习笔记
【Java】学习笔记汇总
虚拟机内安装3个CentOS系统,并按照(【Zookeeper】介绍、安装和参数配置)安装配置好zookeeper。
也可以先配置好一个系统,其他系统克隆过来重命名。
配置服务器编号
步骤1:在zookeeper根目录下创建zkData
文件夹,并修改配置文件dataDir
(上一篇博客介绍过)
步骤2:在zkData
目录下创建myid文件
vi myid
在文件中添加server对应的编号(注意:上下不要有空行,左右不要有空格),1、2或3
步骤3:按照步骤2的方法配置其他两台虚拟机(服务器)
开启防火墙端口
需打开防火墙2888和3888端口
步骤1:设置开放的端口号
firewall-cmd --add-service=http --permanent
sudo firewall-cmd --add-port=2888/tcp --permanent
sudo firewall-cmd --add-port=3888/tcp --permanent
步骤2:重启防火墙
firewall-cmd --reload
步骤3:查看开放端口号
firewall-cmd --list-all
配置zoo.cfg文件
步骤1:重命名
修改zookeeper根目录/conf
目录下的 zoo_sample.cfg
为zoo.cfg
mv zoo_sample.cfg zoo.cfg
步骤2:打开 zoo.cfg文件
vim zoo.cfg
增加如下配置
server.1=192.168.150.101:2888:3888
server.2=192.168.150.102:2888:3888
server.3=192.168.150.103:2888:3888
server.1=192.168.150.101:2888:3888
server.A=B:C:D
集群模式下配置一个文件 myid 这个文件在dataDir目录下,这个文件里面有一个数据就是A的值, Zookeeper启动时读取此文件,拿到里面的数据与 zoo.cfg里面的配置信息比较从而判断到底是哪个 server。
步骤1:分别启动 Zookeeper
./zkServer.sh start
步骤2:查看状态
./zkServer.sh status
Zookeeper选举机制——第一次启动
SID:服务器ID。用来唯一标识一台ZooKeeper集群中的机器,每台机器不能重复,和myid一致。
ZXID:事务ID。ZXID是一个事务ID,用来标识一次服务器状态的变更。在某一时刻,集群中的每台机器的ZXID值不一定完全一致,这和ZooKeeper服务器对于客户端“更新请求”的处理逻辑有关。
Epoch:每个Leader任期的代号。没有Leader时同一轮投票过程中的逻辑时钟值是相同的。每投完一次票这个数据就会增加。
添加脚本
在第一台服务器的 /home/admin/bin目录下创建脚本:
vim zk.sh
添加内容并保存(文件路径和ip地址要根据自己的情况进行设置):
最外层是一个case
,$1
表示输入的第一个参数,可以为 start
、stop
、status
。
内层是一个for
循环,遍历三个ip地址。echo
显示内容在控制台上。ssh连接ip地址执行字符串内的命令。
# !/bin/bash
case $1 in
"start"){
for i in 192.168.150.101 192.168.150.102 192.168.150.103
do
echo ---------------------- zookeeper $i start ----------------------
ssh $i "/opt/apache-zookeeper-3.5.7-bin/bin/zkServer.sh start"
done
}
;;
"stop"){
for i in 192.168.150.101 192.168.150.102 192.168.150.103
do
echo ---------------------- zookeeper $i stop ----------------------
ssh $i "/opt/apache-zookeeper-3.5.7-bin/bin/zkServer.sh stop"
done
}
;;
"status") {
for i in 192.168.150.101 192.168.150.102 192.168.150.103
do
echo ---------------------- zookeeper $i status ----------------------
ssh $i "/opt/apache-zookeeper-3.5.7-bin/bin/zkServer.sh status"
done
}
;;
esac
增加脚本执行权限:chmod 777 zk.sh
启动zk集群:zk.sh start
客户端连接
正常启动(连接本地服务器):./zkCli.sh
连接指定服务器启动:./zkCli.sh -server 其他zk服务器的ip地址:2181
连接指定服务器启动,可能会失败,zookeeper出现
Will not attempt to authenticate using SASL (unknown error)
此时要关闭防火墙
systemctl disable firewalld
systemctl stop firewalld.service
命令行基本语法 | 功能描述 |
---|---|
help | 显示所有操作命令 |
ls path | 查看当前 znode 的子节点[可监听];-w 监听子节点变化;-s 附加次级信息 |
create | 普通创建;-s 含有序列;-e 临时(重启或者超时消失) |
get path | 获得节点的值[可监听];-w 监听节点内容变化;-s 附加次级信息; |
set | 设置节点的具体值 |
stat | 查看节点状态 |
delete | 删除节点 |
deleteall | 递归删除节点 |
查看当前znode中所包含的内容
[zk: 192.168.150.103:2181(CONNECTED) 0] ls /
[zookeeper]
查看当前节点详细数据
[zk: 192.168.150.103:2181(CONNECTED) 1] ls -s /
[zookeeper]cZxid = 0x0
ctime = Thu Jan 01 08:00:00 CST 1970
mZxid = 0x0
mtime = Thu Jan 01 08:00:00 CST 1970
pZxid = 0x0
cversion = -1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 0
numChildren = 1
czxid
:创建节点的事务 zxid,每次修改ZooKeeper状态都会 产生一个 ZooKeeper事务 ID。事务 ID是 ZooKeeper中所有修改总的次序。每次修改都有唯一的zxid,如果 zxid1小于 zxid2,那么 zxid1在 zxid2之前发生。
ctime
:znode被创建的毫秒数(从 1970年开始)
mzxid
:znode最后更新的事务 zxid
mtime
:znode最后修改的毫秒数(从 1970年开始)
pZxid
:znode最后更新的子节点 zxid
cversion
:znode 子节点变化号,znode 子节点修改次数
dataversion
:znode 数据变化号
aclVersion
:znode 访问控制列表的变化号
ephemeralOwner
:如果是临时节点,这个是znode 拥有者的session id。如果不是临时节点则是0。
dataLength
:znode 的数据长度
numChildren
:znode 子节点数量
持久(Persistent):客户端和服务器端断开连接后,创建的节点不删除
短暂(Ephemeral):客户端和服务器端断开连接后,创建的节点自己删除
说明:创建znode时设置顺序标识,znode名称后会附加一个值,顺序号是一个单调递增的计数器,由父节点维护
注意:在分布式系统中,顺序号可以被用于为所有的事件进行全局排序,这样客户端可以通过顺序号推断事件的顺序
(1)持久化目录节点:客户端与Zookeeper断开连接后,该节点依旧存在
(2)持久化顺序编号目录节点:客户端与Zookeeper断开连接后,该节点依旧存在,只是Zookeeper给该节点名称进行顺序编号
(3)临时目录节点:客户端与Zookeeper断开连接后,该节点被删除
(4)临时顺序编号目录节点:客户端与Zookeeper断开连接后, 该节点被删除, 只是Zookeeper给该节点名称进行顺序编号。
分别创建2个普通节点(永久节点 + 不带序号)
[zk: 192.168.150.103:2181(CONNECTED) 0] create /sanguo "diaocan"
Created /sanguo
[zk: 192.168.150.103:2181(CONNECTED) 1] ls /
[sanguo, zookeeper]
[zk: 192.168.150.103:2181(CONNECTED) 2] create /sanguo/shuguo "liubei"
Created /sanguo/shuguo
[zk: 192.168.150.103:2181(CONNECTED) 3] ls /
[sanguo, zookeeper]
[zk: 192.168.150.103:2181(CONNECTED) 4] ls /sanguo
[shuguo]
注意:创建节点时,要赋值
获得节点的值
[zk: 192.168.150.103:2181(CONNECTED) 5] get -s /sanguo
diaocan
cZxid = 0x30000000a
ctime = Wed Nov 10 21:45:07 CST 2021
mZxid = 0x30000000a
mtime = Wed Nov 10 21:45:07 CST 2021
pZxid = 0x30000000b
cversion = 1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 7
numChildren = 1
[zk: 192.168.150.103:2181(CONNECTED) 6] get -s /sanguo/shuguo
liubei
cZxid = 0x30000000b
ctime = Wed Nov 10 21:45:42 CST 2021
mZxid = 0x30000000b
mtime = Wed Nov 10 21:45:42 CST 2021
pZxid = 0x30000000b
cversion = 0
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 6
numChildren = 0
创建带序号的节点(永久节点 + 带序号)
[zk: 192.168.150.103:2181(CONNECTED) 7] create /sanguo/weiguo "caocao"
Created /sanguo/weiguo
[zk: 192.168.150.103:2181(CONNECTED) 8] ls /sanguo
[shuguo, weiguo]
[zk: 192.168.150.103:2181(CONNECTED) 9] create -s /sanguo/weiguo/zhangliao "zhangliao"
Created /sanguo/weiguo/zhangliao0000000000
[zk: 192.168.150.103:2181(CONNECTED) 10] ls /sanguo/weiguo
[zhangliao0000000000]
[zk: 192.168.150.103:2181(CONNECTED) 11] create -s /sanguo/weiguo/zhangliao "zhangliao"
Created /sanguo/weiguo/zhangliao0000000001
[zk: 192.168.150.103:2181(CONNECTED) 12] create -s /sanguo/weiguo/zhangliao "zhangliao"
Created /sanguo/weiguo/zhangliao0000000002
[zk: 192.168.150.103:2181(CONNECTED) 13] ls /sanguo/weiguo
[zhangliao0000000000, zhangliao0000000001, zhangliao0000000002]
如果原来没有序号节点 ,序号从0开始依次递增。 如果原节点下已有2个节点,则再排序时从2开始,以此类推。
退出客户端后再连接,节点仍然存在。
创建短暂节点(短暂节点 + 不带序号 or 带序号)
[zk: 192.168.150.103:2181(CONNECTED) 14] create -e /sanguo/wuguo "zhouyu"
Created /sanguo/wuguo
[zk: 192.168.150.103:2181(CONNECTED) 15] ls /sanguo
[shuguo, weiguo, wuguo]
[zk: 192.168.150.103:2181(CONNECTED) 16] create -e -s /sanguo/wuguo "zhouyu"
Created /sanguo/wuguo0000000003
[zk: 192.168.150.103:2181(CONNECTED) 17] ls /sanguo
[shuguo, weiguo, wuguo, wuguo0000000003]
退出客户端后再连接,临时节点会消失。
修改节点数据值
[zk: 192.168.150.103:2181(CONNECTED) 18] set /sanguo/weiguo "simayi"
[zk: 192.168.150.103:2181(CONNECTED) 19] get -s /sanguo/weiguo
simayi
cZxid = 0x30000000c
ctime = Wed Nov 10 21:48:32 CST 2021
mZxid = 0x300000012
mtime = Wed Nov 10 21:55:19 CST 2021
pZxid = 0x30000000f
cversion = 3
dataVersion = 1
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 6
numChildren = 3
客户端注册监听它关心的目录节点,当目录节点发生变化(数据改变、节点删除、子目录节点增加删除)时,ZooKeeper 会通知客户端。监听机制保证ZooKeeper 保存的任何的数据的任何改变都能快速的响应到监听了该节点的应用程序。
1)首先要有一个main()线程
2)在main线程中创建Zookeeper客户端,这时就会创建两个线程,一个负责网络连接通信(connet),一个负责监听(listener)。
3)通过connect线程将注册的监听事件发送给Zookeeper。
4)在Zookeeper的注册监听器列表中将注册的监听事件添加到列表中。
5)Zookeeper监听到有数据或路径变化,就会将这个消息发送给listener线程。
6)listener线程内部调用了process()方法。
常见的监听
1)监听节点数据的变化 get path [watch]
2)监听子节点增减的变化 ls path [watch]
节点的值变化监听
客户端1:查看sanguo
的值
[zk: localhost:2181(CONNECTED) 0] get -w /sanguo
diaocan
[zk: localhost:2181(CONNECTED) 1]
客户端2:修改sanguo
的值
[zk: localhost:2181(CONNECTED) 0] set /sanguo "xisi"
客户端1:监听到改变
WATCHER::
WatchedEvent state:SyncConnected type:NodeDataChanged path:/sanguo
注意:在客户端2再多次修改/sanguo的值,客户端1上不会再收到监听。因为注册
一次,只能监听一次。想再次监听,需要再次注册。
节点的子节点变化监听(路径变化)
客户端1:
[zk: localhost:2181(CONNECTED) 1] ls -w /sanguo
[shuguo, weiguo]
客户端2:
[zk: localhost:2181(CONNECTED) 1] create /sanguo/jin "simayi"
Created /sanguo/jin
客户端1:
[zk: localhost:2181(CONNECTED) 1] ls -w /sanguo
[shuguo, weiguo]
删除节点:delete /sanguo/jin
[zk: localhost:2181(CONNECTED) 0] ls /
[sanguo, zookeeper]
[zk: localhost:2181(CONNECTED) 1] ls /sanguo
[jin, shuguo, weiguo]
[zk: localhost:2181(CONNECTED) 2] delete /sanguo/jin
[zk: localhost:2181(CONNECTED) 3] ls /sanguo
[shuguo, weiguo]
递归删除节点:deleteall /sanguo
[zk: localhost:2181(CONNECTED) 4] deleteall /sanguo
[zk: localhost:2181(CONNECTED) 5] ls /sanguo
Node does not exist: /sanguo
查看节点状态:stat /sanguo
前提:保证服务器上Zookeeper集群服务端启动。
步骤1:新建Mavern工程:zookeeper
步骤2:添加pom文件
<dependencies>
<dependency>
<groupId>junitgroupId>
<artifactId>junitartifactId>
<version>RELEASEversion>
dependency>
<dependency>
<groupId>org.apache.logging.log4jgroupId>
<artifactId>log4j-coreartifactId>
<version>2.8.2version>
dependency>
<dependency>
<groupId>org.apache.zookeepergroupId>
<artifactId>zookeeperartifactId>
<version>3.5.7version>
dependency>
dependencies>
步骤3:拷贝log4j.properties
文件到项目根目录
需要在项目的src/main/resources
目录下,新建一个文件,命名为log4j.properties
,在文件中填入:
log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern =%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/spring.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
步骤4:创建包com.zqc.zk
步骤5:创建类zkClient
connectString
为三个zk服务器的ip地址。
public class zkClient{
// 注意:逗号左右不能有空格
private String connectString = "192.168.150.101:2181,192.168.150.102:2181,192.168.150.103:2181";
private int sessionTimeout = 10000;
@Test
public void init() throws IOException {
ZooKeeper zooKeeper = new ZooKeeper(connectString, sessionTimeout, new Watcher() {
@Override
public void process(WatchedEvent watchedEvent) {
}
});
}
}
运行后显示(不管是否连接成功都会显示,但我设置错误的ip时也不会报错,通过后续的测试验证是否连接成功)
2021-11-11 09:44:10,197 INFO [org.apache.zookeeper.ZooKeeper] - Initiating client connection, connectString=192.168.150.101:2181,192.168.150.102:2181,192.168.150.103:2181 sessionTimeout=2000 watcher=com.zqc.zk.zkClient$1@6aceb1a5
2021-11-11 09:44:10,239 INFO [org.apache.zookeeper.common.X509Util] - Setting -D jdk.tls.rejectClientInitiatedRenegotiation=true to disable client-initiated TLS renegotiation
2021-11-11 09:44:10,509 INFO [org.apache.zookeeper.ClientCnxnSocket] - jute.maxbuffer value is 4194304 Bytes
2021-11-11 09:44:10,516 INFO [org.apache.zookeeper.ClientCnxn] - zookeeper.request.timeout value is 0. feature enabled=
ip地址只连接了一个,一起连接总会报错,不知道什么原因
public class zkClient {
// 注意:逗号左右不能有空格
private final String connectString = "192.168.150.102:2181";
private final int sessionTimeout = 10000;
private ZooKeeper zkClient;
@Before
public void init() throws IOException {
zkClient = new ZooKeeper(connectString, sessionTimeout, new Watcher() {
@Override
public void process(WatchedEvent watchedEvent) {
System.out.println("DataWatcher.process==============" + watchedEvent);
}
});
System.out.println(zkClient);
}
@Test
public void create() throws InterruptedException, KeeperException {
// 参数1:要创建的节点的路径 参数2:节点数据 参数3:节点权限 参数4:节点的类型
String s = zkClient.create("/sanguo1", "caocao".getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
}
}
PERSISTENT 永久的
EPHEMERAL 暂时的
报错如下:
org.apache.zookeeper.KeeperException$ConnectionLossException: KeeperErrorCode = ConnectionLoss for /sanguo1
解决方案:
private int sessionTimeout = 10000;
测试:在任意一台zk客户端上查看创建节点情况
[zk: localhost:2181(CONNECTED) 0] ls /
[sanguo, sanguo1, zookeeper]
程序启动,打印当前所有节点。
程序有延迟,将一直运行,如果监听到节点的变化则立刻打印出所有节点。
(在zk客户端界面创建新的节点,idea控制台就会打印出变化后的全部节点)
public class zkClient {
// 注意:逗号左右不能有空格
private final String connectString = "192.168.150.101:2181";
private final int sessionTimeout = 10000;
private ZooKeeper zkClient;
@Before
public void init() throws IOException {
zkClient = new ZooKeeper(connectString, sessionTimeout, new Watcher() {
@Override
public void process(WatchedEvent watchedEvent) {
List<String> children = null;
try {
children = zkClient.getChildren("/", true);
for (String child : children) {
System.out.println(child);
}
} catch (Exception e) {
e.printStackTrace();
}
}
});
System.out.println(zkClient);
}
@Test
public void getChildren() throws InterruptedException, KeeperException, IOException {
List<String> children = zkClient.getChildren("/", true);
for (String child : children) {
System.out.println(child);
}
// 延迟
Thread.sleep(Long.MAX_VALUE);
}
}
@Test
public void exist() throws InterruptedException, KeeperException {
Stat exists = zkClient.exists("/sanguo2", false);
System.out.println(exists==null? "not exist" : "exist");
}
1 client发请求让leader写。
2 leader写完后发请求让follower1写。
3 follower1写完之后告诉leader已经写完了。
4 此时已经有一半以上的服务器写完了,所以leader告诉client已经写完了。
5 leader继续告诉follower2写。
6 follower2写完告诉leader已经写完了。
1 client发请求让follower1写,follower1没有权限写。
2 follower1将请求转发给leader写。
3 leader写完后,发命令让follower1写。
4 follower1写完之后告诉leader已经写完了。
5 此时已经有一半以上的服务器写完了,所以leader应该要告诉client已经写完了,但是它不能直接跟clinet通讯,所以要让follower1转达。
6 follower1告诉client已经写完了。
7 leader继续告诉follower2写。
8 follower2写完告诉leader已经写完了。