Zookeeper 原理与优化

Zookeeper 是什么

 Zookeeper 是一个基于 Google Chubby 论文实现的一款解决分布式数据一致性问题的开源实现,方便了依赖 Zookeeper 的应用实现 数据发布 / 订阅负载均衡服务注册与发现分布式协调事件通知集群管理Leader 选举分布式锁和队列 等功能

基本概念

集群角色

 一般的,在分布式系统中,构成集群的每一台机器都有自己的角色,最为典型的集群模式就是 Master / Slave 主备模式。在该模式中,我们把能够处理所有写操作的机器称为 Master 节点,并把所有通过异步复制方式获取最新数据、提供读服务的机器称为 Slave 节点


(利用 Axure™ 绘制而成)

 而 Zookeeper 中,则是引入了 领导者(Leader)跟随者(Follower)观察者(Observer) 三种角色 和 领导(Leading)跟随(Following)观察(Observing)寻找(Looking) 等相应的状态。在 Zookeeper 集群中的通过一种 Leader 选举的过程,来选定某个节点作为 Leader 节点,该节点为客户端提供服务。而 FollowerObserver 节点,则都能提供服务,唯一的区别在于,Observer 机器不参与 Leader 选举过程 和 写操作"过半写成功"策略,Observer 只会被告知已经 commit 的 proposal。因此 Observer 可以在不影响写性能的情况下提升集群的读性能(详见下文 “性能优化 - 优化策略 - Observer 模式” 部分)


(利用 Axure™ 绘制而成)

会话

 Session 指客户端会话。在 Zookeeper 中,一个客户端会话是指 客户端服务器之间的一个 TCP 长连接。客户端启动的时候,会与服务端建立一个 TCP 连接,客户端会话的生命周期,则是从第一次连接建立开始算起。通过这个连接,客户端能够通过心跳检测与服务器保持有效的会话,并向 Zookeeper 服务器发送请求并接收响应,以及接收来自服务端的 Watch 事件通知

 Session 的 sessionTimeout 参数,用来控制一个客户端会话的超时时间。当服务器压力太大 或者是网络故障等各种原因导致客户端连接断开时,Client 会自动从 Zookeeper 地址列表中逐一尝试重连(重试策略可使用 Curator 来实现)。只要在 sessionTimeout 规定的时间内能够重新连接上集群中任意一台服务器,那么之前创建的会话仍然有效。如果,在 sessionTimeout 时间外重连了,就会因为 Session 已经被清除了,而被告知 SESSION_EXPIRED,此时需要程序去恢复临时数据;还有一种 Session 重建后的在新节点上的数据,被之前节点上因网络延迟晚来的写请求所覆盖的情况,在 ZOOKEEPER-417 中被提出,并在该 JIRA 中新加入的 SessionMovedException,使得 用同一个 sessionld/sessionPasswd 重建 Session 的客户端能感知到,但是这个问题到 ZOOKEEPER-2219 仍然没有得到很好的解决


(利用 Axure™ 绘制而成)

数据模型

 在 Zookeeper 中,节点分为两类,第一类是指 构成集群的机器,称之为机器节点;第二类则是指 数据模型中的数据单元,称之为数据节点 ZNode。Zookeeper 将所有数据存储在内存中,数据模型的结构类似于树(ZNode Tree),由斜杠(/)进行分割的路径,就是一个 ZNode,例如 /foo/path1。每个 ZNode 上都会保存自己的数据内容 和 一系列属性信息

 ZNode 可以分为持久节点(PERSISTENT)临时节点(EPHEMERAL)两类。所谓持久节点是指一旦这个 ZNode 被创建了,除非主动进行移除操作,否则这个节点将一直保存在 Zookeeper 上。而临时节点的生命周期,是与客户端会话绑定的,一旦客户端会话失效,那么这个客户端创建的所有临时节点都会被移除。在 HBase 中,集群则是通过 /hbase/rs/*/hbase/master 两个临时节点,来监控 HRegionServer 进程的加入和宕机HMaster 进程的 Active 状态

 另外,Zookeeper 还有一种 顺序节点(SEQUENTIAL)。该节点被创建的时候,Zookeeper 会自动在其子节点名上,加一个由父节点维护的、自增整数的后缀(上限:Integer.MAX_VALUE)。该节点的特性,还可以应用到 持久 / 临时节点 上,组合成 持久顺序节点(PERSISTENT_SEQUENTIAL)临时顺序节点(EPHEMERAL_SEQUENTIAL)


(利用 Axure™ 绘制而成)

版本

 Zookeeper 的每个 ZNode 上都会存储数据,对应于每个 ZNode,Zookeeper 都会为其维护一个叫做 Stat 的数据结构,Stat 中记录了这个 ZNode 的三个数据版本,分别是 version(当前 ZNode 数据内容的版本),cversion(当前 ZNode 子节点的版本)和 aversion(当前 ZNode 的 ACL 变更版本)。这里的版本起到了控制 Zookeeper 操作原子性的作用(详见下文 “源码分析 - 落脚点 - Zookeeper 乐观锁” 部分)

Watcher

 Watcher(事件监听器)是 Zookeeper 提供的一种 发布/订阅的机制。Zookeeper 允许用户在指定节点上注册一些 Watcher,并且在一些特定事件触发的时候,Zookeeper 服务端会将事件通知给订阅的客户端。该机制是 Zookeeper 实现分布式协调的重要特性


(利用 Axure™ 绘制而成)

ACL

 类似于 Unix 文件系统,Zookeeper 采用 ACL(Access Control Lists)策略来进行权限控制(使用方式,详见下文 “常用命令 - 执行脚本 - zkCli - 节点操作” 部分;代码实现,详见 PrepRequestProcessor#checkACL)

常用的权限控制

Command Comment
CREATE (c) 创建子节点的权限
READ (r) 获取节点数据和子节点列表的权限
WRITE (w) 更新节点数据的权限
DELETE (d) 删除当前节点的权限
ADMIN (a) 管理权限,可以设置当前节点的 permission
Scheme ID Comment
world anyone Zookeeper 中对所有人有权限的结点就是属于 world:anyone
auth 不需要 id 通过 authentication 的 user 都有权限
(Zookeeper 支持通过 kerberos 来进行 authencation,也支持 username/password形式的 authentication)
digest username:BASE64 (SHA1(password)) 需要先通过 username:password 形式的 authentication
ip id 为客户机的 IP 地址(或者 IP 地址段) ip:192.168.1.0/14,表示匹配前 14 个 bit 的 IP 段
super 对应的 id 拥有超级权限(CRWDA)

IP

编码
@Before
public void init() throws Exception {
  zoo = new ZooKeeper(HOST.concat(":" + CLIENT_PORT), TIME_OUT_MILLISECOND, null);
  acls = new ArrayList<>();
  acls.add(new ACL(ZooDefs.Perms.ALL, new Id(IP, "10.24.40.178")));
  acls.add(new ACL(ZooDefs.Perms.ALL, new Id(IP, "127.0.0.1")));
  aclsNoAuth = new ArrayList<>();
  aclsNoAuth.add(new ACL(ZooDefs.Perms.ALL, new Id(IP, "127.0.0.1")));
}

@Test
public void ipAcl() throws Exception {
  if (zoo.exists(IP_PATH, null) != null) zoo.delete(IP_PATH, -1);
  if (zoo.exists(IP_PATH_NO_AUTH, null) != null) zoo.delete(IP_PATH_NO_AUTH, -1);
  zoo.create(IP_PATH, IP.getBytes(), acls, CreateMode.PERSISTENT);
  assertEquals(IP, new String(zoo.getData(IP_PATH, false, null)));
  zoo.create(IP_PATH_NO_AUTH, IP.getBytes(), aclsNoAuth, CreateMode.PERSISTENT);
  try {
    zoo.getData(IP_PATH_NO_AUTH, false, null);
  } catch (KeeperException.NoAuthException e) {
    assertEquals("KeeperErrorCode = NoAuth for ".concat(IP_PATH_NO_AUTH), e.getMessage());
  }
}

Tips: Full code is here.

命令行
$ zkCli.sh -server localhost:2181
  [zk: localhost:2181(CONNECTED) 16] ls /
    [leader, election, zookeeper, origin, ip, auth_test, benchmark]

  [zk: localhost:2181(CONNECTED) 17] ls /ip
    Authentication is not valid : /ip

  [zk: localhost:2181(CONNECTED) 18] getAcl /ip
    'ip,'10.24.40.178
    : cdrwa
    'ip,'127.0.0.1
    : cdrwa


$ zkCli.sh -server 127.0.0.1:2181
  [zk: 127.0.0.1:2181(CONNECTED) 1] ls /ip
    []

  [zk: 127.0.0.1:2181(CONNECTED) 2] get /ip
    ip
    cZxid = 0x10000c43b
    ctime = Tue Aug 22 16:50:37 CST 2017
    mZxid = 0x10000c43b
    mtime = Tue Aug 22 16:50:37 CST 2017
    pZxid = 0x10000c43b
    cversion = 0
    dataVersion = 0
    aclVersion = 0
    ephemeralOwner = 0x0
    dataLength = 2
    numChildren = 0
优缺点

 简单易用,直接在物理层面,对用户进行权限隔离;但是,如果不将 127.0.0.1 放入到 IP Acl 列表里,会给服务端的运维带来麻烦

Digest

编码
@Before
public void init() throws Exception {
  zoo = new ZooKeeper(HOST.concat(":" + CLIENT_PORT), TIME_OUT_MILLISECOND, null);
  zoo.addAuthInfo("digest", "yuzhouwan:com".getBytes());
  zooNoAuth = new ZooKeeper(HOST.concat(":" + CLIENT_PORT), TIME_OUT_MILLISECOND, null);
}

@Test
public void digestAcl() throws Exception {
  if (zoo.exists(AUTH_PATH_CHILD, null) != null) zoo.delete(AUTH_PATH_CHILD, -1);
  if (zoo.exists(AUTH_PATH, null) != null) zoo.delete(AUTH_PATH, -1);
  zoo.create(AUTH_PATH, bytes, ZooDefs.Ids.CREATOR_ALL_ACL, CreateMode.PERSISTENT);
  try {
    zooNoAuth.create(AUTH_PATH_CHILD, bytes, ZooDefs.Ids.CREATOR_ALL_ACL, CreateMode.PERSISTENT);
  } catch (KeeperException.InvalidACLException e) {
    assertEquals("KeeperErrorCode = InvalidACL for /auth_test/child", e.getMessage());
  }
  zoo.create(AUTH_PATH_CHILD, bytes, ZooDefs.Ids.CREATOR_ALL_ACL, CreateMode.PERSISTENT);
  try {
    zooNoAuth.delete(AUTH_PATH_CHILD, -1);
  } catch (KeeperException.NoAuthException e) {
    assertEquals("KeeperErrorCode = NoAuth for /auth_test/child", e.getMessage());
  }
  assertEquals(AUTH_PATH, new String(zoo.getData(AUTH_PATH, false, null)));
}

Tips: Full code is here.

命令行
$ zkCli.sh -server localhost:2181
  [zk: localhost:2181(CONNECTED) 5] ls /
    [leader, auth_test, election, zookeeper, benchmark, origin]

  [zk: localhost:2181(CONNECTED) 6] ls /auth_test
    Authentication is not valid : /auth_test

  [zk: localhost:2181(CONNECTED) 7] get /auth_test
    Authentication is not valid : /auth_test

  [zk: localhost:2181(CONNECTED) 8] getAcl /auth_test
    'digest,'yuzhouwan:h/j+/wDlblTtA48jnbq8snP1glA=
    : cdrwa

  [zk: localhost:2181(CONNECTED) 9] addauth digest yuzhouwan:true

  [zk: localhost:2181(CONNECTED) 10] get /auth_test
    /auth_test
    cZxid = 0x10000c31e
    ctime = Tue Aug 22 15:26:27 CST 2017
    mZxid = 0x10000c31e
    mtime = Tue Aug 22 15:26:27 CST 2017
    pZxid = 0x10000c31e
    cversion = 0
    dataVersion = 0
    aclVersion = 0
    ephemeralOwner = 0x0
    dataLength = 10
    numChildren = 0
优缺点

 可以建立角色,按照用户名、密码进行权限控制;但是,想要修改某个用户的密码,需要对所有的 ACLs 做更改

SASL & Kerberos

环境搭建

单机版

安装

$ cd ~/install/
$ wget http://archive.apache.org/dist/zookeeper/zookeeper-3.4.10/zookeeper-3.4.10.tar.gz
$ wget http://archive.apache.org/dist/zookeeper/zookeeper-3.4.10/zookeeper-3.4.10.tar.gz.md5

# 校验 MD5
$ head -n 1 zookeeper-3.4.10.tar.gz.md5
  e4cf1b1593ca870bf1c7a75188f09678  zookeeper-3.4.10.tar.gz
$ md5sum zookeeper-3.4.10.tar.gz
  e4cf1b1593ca870bf1c7a75188f09678 *zookeeper-3.4.10.tar.gz

# 对比 MD5 码一致后进行解压安装
$ tar zxvf zookeeper-3.4.10.tar.gz -C ~/software/
$ cd ~/software
$ ln -s zookeeper-3.4.10 zookeeper

配置

$ cd zookeeper
$ mkdir tmp
$ cp conf/zoo_sample.cfg conf/zoo.cfg
$ mkdir -p /home/zookeeper/data/zookeeper
$ mkdir -p /home/zookeeper/logs/zookeeper

# 更多配置,详见下文 “常用配置” 部分
$ vim conf/zoo.cfg
  tickTime=2000
  initLimit=10
  syncLimit=5
  dataDir=/home/zookeeper/data/zookeeper
  dataLogDir=/home/zookeeper/logs/zookeeper
  clientPort=2181

启动

$ bin/zkServer.sh start
$ bin/zkServer.sh status
  ZooKeeper JMX enabled by default
  Using config: /home/zookeeper/software/zookeeper/bin/../conf/zoo.cfg
  Mode: standalone
$ bin/zkCli.sh

分布式

# 更多配置,详见下文 “常用配置” 部分
$ vim conf/zoo.cfg
  tickTime=2000
  initLimit=10
  syncLimit=5
  dataDir=/home/zookeeper/data/zookeeper
  dataLogDir=/home/zookeeper/logs/zookeeper
  clientPort=2181
  server.1=yuzhouwan01:2281:2282
  server.2=yuzhouwan02:2281:2282
  server.3=yuzhouwan03:2281:2282

# 在各个节点的 dataDir下创建 myid 文件,并对应 zoo.cfg中配置的 id
[zookeeper@yuzhouwan01 ~] echo "1" > /home/zookeeper/data/zookeeper/myid
[zookeeper@yuzhouwan02 ~] echo "2" > /home/zookeeper/data/zookeeper/myid
[zookeeper@yuzhouwan03 ~] echo "3" > /home/zookeeper/data/zookeeper/myid

常用命令

四字命令

Command Comment
conf 输出相关服务配置的详细信息
cons 列出所有连接到服务器的客户端的完全的连接 / 会话的详细信息 (包括“接受 / 发送” 的包数量、会话 id 、操作延迟、最后的操作执行等等信息)
envi 输出关于服务环境的详细信息 (区别于 conf 命令)
dump 列出未经处理的会话和临时节点
stat 查看哪个节点被选择作为 Follower 或者 Leader
ruok 测试是否启动了该 Server,若回复 imok 表示已经启动
mntr 输出一些运行时信息(latency / packets / alive_connections / outstanding_requests / server_state / znode + watch + ephemerals count …)
reqs 列出未经处理的请求
wchs 列出服务器 watch 的简要信息
wchc 通过 session 列出服务器 watch 的详细信息(输出是一个与 watch 相关的会话的列表)
wchp 通过路径列出服务器 watch 的详细信息(输出一个与 session 相关的路径)
srvr 输出服务的所有信息(可以用来检查当前节点同步完毕集群数据,处于 Follower 状态)
srst 重置服务器统计信息
kill 关掉 Server

Tips: 部分加粗命令对资源消耗比较大,生产环境慎用!

使用方式

安装 Netcat
# online
$ yum install nc

# offline
$ uname -a
  Linux yuzhouwan 2.6.32-279.el6_sn.7.x86_64 #1 SMP Fri May 27 18:04:25 CST 2016 x86_64 x86_64 x86_64 GNU/Linux
# 搜索rpm包 https://rpmfind.net/linux/rpm2html/search.php?query=nc&submit=Search+...&system=&arch=x86_64
$ wget ftp://rpmfind.net/linux/centos/6.9/os/x86_64/Packages/nc-1.84-24.el6.x86_64.rpm
$ rpm -ivh nc-1.84-24.el6.x86_64.rpm
Netcat 执行
$ echo  | nc 127.0.0.1 2181

DOS 攻击

# 避免 wchp / wchc 四字命令被 DOS 攻击利用
$ vim zoo.cfg
  # 4lw.commands.whitelist=*
  4lw.commands.whitelist=stat, ruok, conf, isro

产生的日志

# 可以看到 zk.out 文件中出现 0:0:0:0:0:0:0:1(IPv6 的回送地址,相当于 IPv4 的 127.0.0.1)和 Processing xxxx command 相应的日志
2017-06-13 23:05:01,998 [myid:5] - INFO  [NIOServerCxn.Factory:0.0.0.0/0.0.0.0:2181:NIOServerCnxnFactory@197] - Accepted socket connection from /0:0:0:0:0:0:0:1:40986
2017-06-13 23:05:01,998 [myid:5] - INFO  [NIOServerCxn.Factory:0.0.0.0/0.0.0.0:2181:NIOServerCnxn@827] - Processing srvr command from /0:0:0:0:0:0:0:1:40986
2017-06-13 23:05:02,000 [myid:5] - INFO  [Thread-64778:NIOServerCnxn@1007] - Closed socket connection for client /0:0:0:0:0:0:0:1:40986 (no session established for client)

执行脚本

zkServer

启动
# 启动
$ bin/zkServer.sh start
# 查看状态
$ bin/zkServer.sh status
# 停止服务
$ bin/zkServer.sh stop
# 重启
$ bin/zkServer.sh restart
排查问题
# 可以通过增加 `start-foreground` 参数来排查失败原因
$ bin/zkServer.sh start-foreground
  ZooKeeper JMX enabled by default
  Using config: /home/eagle/software/zookeeper/bin/../conf/zoo.cfg
  Error: Could not find or load main class org.apache.zookeeper.server.quorum.QuorumPeerMain
# /home/eagle/software/zookeeper/zookeeper-3.4.10.jar 的问题,重新下载,校验 md5 正确后,再次安装即可

zkCli

启动
$ cd $ZOOKEEPER_HOME
$ bin/zkCli -server :2181,:2181,:2181
节点操作
Command Example Comment
create 创建一个节点
ls 查看当前节点数据
ls2 查看当前节点数据,并能看到更新次数等信息
set 修改节点
get 得到一个节点,包含数据更新次数等信息
delete 删除一个节点
rmr 递归删除
history 列出最近的历史命令
redo redo 1 重做第 n 步命令
stat 打印节点状态
close 关闭当前连接
connect : connect localhost:2181 当 close 当前连接或者意外退出后,可在 zkCli 命令模式中重连
quit 退出当前连接
setAcl setAcl /zk world:anyone:cdrw 设置节点权限策略(详见上文 “基本概念 - ACL” 部分)
getAcl 获取节点权限策略
addauth addauth digest username:password 节点权限认证
setquota -n -b val
listquota listquota /zookeeper 查看节点的配额
count=5, bytes=-1 /zookeeper 节点个数限额为 5,长度无限额
delquota [-n or -b]
sync 强制同步
(由于 “过半原则”,导致某些 Zookeeper Server 上的数据是旧的,用 sync 命令可强制同步所有的更新操作)
printwatches on off
常见组合(for Kafka)
Command Comment
get /consumers//owners 查看 Topic 实时消费的 Group ID
get /consumers//offsets// 查看 Offset 情况(ctime:创建时间;mtime:修改时间)

常用配置

dataDir

 Zookeeper 保存服务器存储快照文件的目录,默认情况,Zookeeper 将 写数据的日志文件也保存在这个目录里(default:/tmp/zookeeper)

dataLogDir

 用来存储服务器事务日志

clientPort

 客户端连接 Zookeeper 服务器的端口,Zookeeper 会监听这个端口,接受客户端的访问请求(default:2181)

tickTime(SS / CS)

 用来指示 服务器之间或客户端服务器之间维护心跳机制的 最小时间单元,Session 最小过期时间默认为两倍的 tickTime(default:2000ms)

initLimit(LF)

 集群中的 Leader 节点和 Follower 节点之间初始连接时能容忍的最多心跳数(default:5 tickTime)

syncLimit(LF)

 集群中的 Leader 节点和 Follower 节点之间请求和应答时能容忍的最多心跳数(default:2 tickTime)

minSessionTimeout & maxSessionTimeout

 默认分别是 2 * tickTime ~ 20 * tickTime,来用控制 客户端设置的 Session 超时时间。如果超出或者小于,将自动被服务端强制设置为 最大或者最小

集群节点

 配置 Zookeeper 集群中的服务器节点
  格式:server.=<服务器地址>::<选举端口>
  样例:server.1=yuzhouwan:2888:3888

动态配置

$ vim zoo_replicated1.cfg
  tickTime=2000
  dataDir=/zookeeper/data/zookeeper1
  initLimit=5
  syncLimit=2
  dynamicConfigFile=/zookeeper/conf/zoo_replicated1.cfg.dynamic

$ vim zoo_replicated1.cfg.dynamic
  server.1=125.23.63.23:2780:2783:participant;2791
  server.2=125.23.63.24:2781:2784:participant;2792
  server.3=125.23.63.25:2782:2785:participant;2793

监控

采集方式

JMX

远程连接

 Zookeeper 默认支持 JMX 连接,但是只支持本地连接

# 开启远程 JMX
$ vim bin/zkServer.sh
  # ZOOMAIN="-Dcom.sun.management.jmxremote -Dcom.sun.management.jmxremote.local.only=$JMXLOCALONLY org.apache.zookeeper.server.quorum.QuorumPeerMain"
  ZOOMAIN="-Dcom.sun.management.jmxremote.port=8888 -Dcom.sun.management.jmxremote.ssl=false -Dcom.sun.management.jmxremote.authenticate=false org.apache.zookeeper.server.quorum.QuorumPeerMain"

Four-letter command

TCP Dump

# 使用 tcpdump 命令,需要在 root 权限下执行
$ sudo tcpdump tcp port 2181 and host ! 127.0.0.1
  # 下面抓包到的信息,是 Curator 远程连接,并在 /children 命名空间下,创建临时节点 /yuzhouwan,最终断开 TCP 连接的过程
  14:50:16.192736 IP 10.10.10.10.56342 > yuzhouwan01.eforward: Flags [S], seq 818611125, win 8192, options [mss 1460,nop,wscale 8,nop,nop,sackOK], length 0
  14:50:16.192765 IP yuzhouwan01.eforward > 10.10.10.10.56342: Flags [S.], seq 3867146147, ack 818611126, win 14600, options [mss 1460,nop,nop,sackOK,nop,wscale 7], length 0
  14:50:16.193502 IP 10.10.10.10.56342 > yuzhouwan01.eforward: Flags [.], ack 1, win 256, length 0
  14:50:16.196755 IP 10.10.10.10.56342 > yuzhouwan01.eforward: Flags [P.], seq 1:50, ack 1, win 256, length 49
  14:50:16.196768 IP yuzhouwan01.eforward > 10.10.10.10.56342: Flags [.], ack 50, win 115, length 0
  14:50:16.198618 IP yuzhouwan01.eforward > 10.10.10.10.56342: Flags [P.], seq 1:42, ack 50, win 115, length 41
  14:50:16.214597 IP 10.10.10.10.56342 > yuzhouwan01.eforward: Flags [P.], seq 50:76, ack 42, win 256, length 26
  14:50:16.215109 IP yuzhouwan01.eforward > 10.10.10.10.56342: Flags [P.], seq 42:62, ack 76, win 115, length 20

Tips: 比较关心的一个问题是,tcpdump 是否会对性能造成影响?答案是,会的。当过滤上千的 IP 时,已经会影响到服务器性能。主要瓶颈在 BPF Filter,这是一个 O(n) O ( n ) 线性时间复杂度的算法,可以考虑 HiPAC 多维树匹配 替代

指标

Zookeeper 运行状态(mntr)

Metrics Comment Threshold
zk_version 版本
zk_avg_latency 平均 响应延迟
50ms,比上次统计增长超过 20ms,且上一次延迟不为 0
zk_max_latency 最大 响应延迟
zk_min_latency 最小 响应延迟
zk_packets_received 收包数
zk_packets_sent 发包数
zk_num_alive_connections 活跃连接数
3000
zk_outstanding_requests 堆积请求数 连续两次大于 5(粒度:1min)
zk_server_state 主从状态 由 Leader 变为 Follower 或 由 Follower 变为 Leader
zk_znode_count znode 数
40000
zk_watch_count watch 数
50000
zk_ephemerals_count 临时节点数
zk_approximate_data_size 近似数据总和大小
zk_open_file_descriptor_count 打开 文件描述符
zk_max_file_descriptor_count 最大 文件描述符
zk_followers Follower 数
zk_synced_followers 已同步的 Follower 数 连续两次检测到未同步的 Follower 节点 (粒度:1min)
zk_pending_syncs 阻塞中的 sync 操作

Tips: 加粗指标,只有 Leader 节点才会有

实时预警

numenta / nupic

 NuPIC(Numenta Platform for Intelligent Computing,Numenta智能计算平台) 是一个与众不同的开源人工智能平台,它基于一种脑皮质学习算法,即 “层级实时记忆”(**H**ierarchical **T**emporal **M**emory,HTM)。该算法旨在模拟新大脑皮层的工作原理,将复杂的问题转化为模式匹配与预测,而传统的 AI 算法大多是针对特定的任务目标而设计的
 NuPIC 聚焦于分析实时数据流,可以通过学习数据之间基于时间的状态变化(而非阀值设置),对未知数据进行预测,并揭示其中的非常规特性。详见我的另一篇博客:人工智能

性能调优

Benchmark(Test First)

 brownsys / zookeeper-benchmark (很难找到合适的开源项目,需自己编写 Benchmark 工具)

优化策略

部署

日志目录
  • 快照目录 dataDir 和 事务日志目录 dataLogDir 分离
  • 写事务日志的目录,需要保证目录空间足够大,并挂载到单独的磁盘上(为了保证数据的一致性, ZooKeeper 在返回客户端事务请求响应之前, 必须要将此次请求对应的事务日志刷入到磁盘中 [forceSync 参数控制,default:yes],所以事务日志的写入速度,直接决定了 Zookeeper 的吞吐率)
自动日志清理
autopurge.purgeInterval

 指定清理频率,单位为小时(default:0 表示不开启自动清理)

autopurge.snapRetainCount

 和上面 purgeInterval 参数配合使用,指定需要保留的文件数目(default:3)

$ vim conf/zoo.cfg
  autopurge.snapRetainCount=3
  autopurge.purgeInterval=1
# 注意:Zookeeper 重启会自动清除 zookeeper.out 日志,如果有排错需要,则应先备份好日志文件

# 如果发现单事务日志量过大,导致定时清理无法及时处理,可以使用 zkCleanup.sh 进行手动清除
$ cd ~/software/zookeeper1
$ zookeeper1/bin/zkCleanup.sh /home/zookeeper/logs/zookeeper1/version-2/ 3
  Removing file: Aug 9, 2017 12:08:49 PM    /home/zookeeper/logs/zookeeper1/version-2/log.1c00000001
  Removing file: Aug 9, 2017 02:03:33 PM    /home/zookeeper/data/zookeeper1/version-2/snapshot.1c0000ab90
Log4j 滚动日志
$ cd $ZOOKEEPER_HOME
$ vim conf/log4j.properties
  zookeeper.root.logger=INFO, CONSOLE
  zookeeper.console.threshold=INFO
  zookeeper.log.dir=.
  zookeeper.log.file=zookeeper.log
  zookeeper.log.threshold=DEBUG
  zookeeper.tracelog.dir=.
  zookeeper.tracelog.file=zookeeper_trace.log

  # 可以调整为 DaliyRollingFileAppender,每天滚动创建新的日志文件
  log4j.appender.ROLLINGFILE=org.apache.log4j.RollingFileAppender
  log4j.appender.ROLLINGFILE.Threshold=${zookeeper.log.threshold}
  log4j.appender.ROLLINGFILE.File=${zookeeper.log.dir}/${zookeeper.log.file}

$ vim bin/zkServer.sh
  # 增加 ZOO_LOG_DIR 配置
  ZOO_LOG_DIR=$ZOOBINDIR/../log4j

$ vim bin/zkEnv.sh
  # if [ "x${ZOO_LOG4J_PROP}" = "x" ]
  # then
  #     ZOO_LOG4J_PROP="INFO,CONSOLE"
  # fi
  if [ "x${ZOO_LOG4J_PROP}" = "x" ]
  then
      ZOO_LOG4J_PROP="INFO,ROLLINGFILE"
  fi

Observer 模式

作用
对读请求进行扩展

 通过增加更多的 Observer,可以接收更多的读请求流量,却不会牺牲写操作的吞吐量(写操作的吞吐量取决于 quorum 法定人数的个数)
 如果增加更多的 Server 进行投票,Quorum 会变大,这会降低写操作的吞吐量
 然而增加 Observer 并不会完全没有损耗,新的 Observer 在提交一个事务后收到一条额外的 INFORM 消息。这个损耗比加入 Follower 进行投票来说会小很多


(图片来源: Observers: core functionality)

跨数据中心部署

 把 participant 分散到多个数据中心,可能会因为数据中心之间的网络延迟,导致系统被拖慢
 使用 Observer 的话,更新操作都在单独的数据中心来处理,再发送到其他数据中心,让 Client 消费数据(分布式数据库 [中美异地机房] 同步系统 Otter 就使用该模式)


(利用 Axure™ 绘制而成)

设置
$ vim conf/zoo.cfg
  peerType=observer
  server.1:localhost:2181:3181:observer # 其他需要扩展成 Observer 的 Server 都需要加上 `:observer` 后缀
INFORM 消息

 因为 Observer 不参与到 ZAB 选举中,所以 Leader 节点不会发送 proposal 给 Observer,只会发送一条包含已经通过选举的 zxid 的 INFORM 消息。这里,参与 ZAB 选举的 Leader、Follower 节点称之为 PARTICIPANT Server,而 Observer 则属于 OBSERVER Server

配置

JVM 相关
swappiness
$ cd $ZOOKEEEPER_HOME
# 常驻进程,需要避免 swapping 损害性能
# 临时生效
$ echo 0 > /proc/sys/vm/swappiness
# 永久生效
$ vim /etc/sysctl.conf
  vm.swappiness=0 # memory first

# 设置 `-XX:+AlwaysPreTouch` 参数,在进程启动的时候,让 jvm 通过 demand-zeroed 方式将内存一次分配到位(ES #16937 / ZK #301)
# 使用 CMS 垃圾回收器(“jdk7 + 内存使用不多” 的缘故,可以暂不考虑 G1GC)
$ vim conf/java.env
  export JVMFLAGS="-Xms3G -Xmx3G -Xmn1G -XX:+AlwaysPreTouch -XX:CMSInitiatingOccupancyFraction=70 -XX:+UseParNewGC -XX:+UseConcMarkSweepGC"
  # 如果需要打印 GC 日志,则多增加一些 flag
  export JVMFLAGS="-Xms3G -Xmx3G -Xmn1G -XX:+AlwaysPreTouch -XX:CMSInitiatingOccupancyFraction=70 -XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:+PrintGCDetails -XX:-PrintGCTimeStamps -Xloggc:/home/zookeeper/logs/zookeeper_`date '+%Y%m%d%H%M%S'`.gc -XX:-UseGCLogFileRotation -XX:NumberOfGCLogFiles=10 -XX:GCLogFileSize=64M"
  # 需要注意的是,如果不希望 zkCli 等命令创建 gc 日志文件,需要把 JVMFLAGS 改成 SERVER_JVMFLAGS

# 更进一步,如果有四字命令在做监控,则建议,直接修改 zkServer.sh,否则因为 zookeeper_`date '+%Y%m%d%H%M%S'`.gc 的存在,导致每次四字命令执行,会有很多小日志被创建(ZK#302 已解决,待分析)
$ vim bin/zkServer.sh
  start)
    # ...
    START_SERVER_JVMFLAGS="-Xms3G -Xmx3G -Xmn1G -XX:+AlwaysPreTouch -XX:CMSInitiatingOccupancyFraction=70 -XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:+PrintGCDetails -XX:-PrintGCTimeStamps -Xloggc:/home/zookeeper/logs/zookeeper_`date '+%Y%m%d%H%M%S'`.gc -XX:-UseGCLogFileRotation -XX:NumberOfGCLogFiles=10 -XX:GCLogFileSize=64M"
    nohup "$JAVA" $ZOO_DATADIR_AUTOCREATE "-Dzookeeper.log.dir=${ZOO_LOG_DIR}" \
    "-Dzookeeper.log.file=${ZOO_LOG_FILE}" "-Dzookeeper.root.logger=${ZOO_LOG4J_PROP}" \
    -XX:+HeapDumpOnOutOfMemoryError -XX:OnOutOfMemoryError='kill -9 %p' \
    -cp "$CLASSPATH" $JVMFLAGS $START_SERVER_JVMFLAGS $ZOOMAIN "$ZOOCFG" > "$_ZOO_DAEMON_OUT" 2>&1 < /dev/null &

# 堆大小的最终确定,需要在 benchmark 结果的基础之上,再做调整
# 另外,一旦创建完该文件,Zookeeper 进程会自动加载,因此,需要确保无误之后,再建立 java.env 文件
升级 JDK8

 为何建议升级 JDK8 呢?因为 Zookeeper 里面很多关键的功能点,都用到了 Atomic 类,而该类在 JDK8 中做了一次升级,性能提升了 6x 倍(JDK8 中加入了 Unsafe.getUnsafe().getAnd[Add|Set][Int|Long|Object] 一系列方法对 Atomic 类做了增强,由于无法看到 Oracle JDK 里 Unsafe 的相关实现,有兴趣可以参考 OpenJDK 源码。目前,存在一种比较靠谱的猜测是,compare-and-swap 被替换成系统底层的 fetch-and-add,后者用 lock xadd 替代了 lock cmpxchg 来实现原子操作。其中 指令前缀 lock 用来锁定指令涉及的存储区域,xadd 指令作用是 交换两个操作数的值,再进行加法操作,cmpxchg 比较交换指令,第一操作数先和 AL/AX/EAX 比较,如果相等 ZF 置 1,第二操作数赋给第一操作数,否则 ZF 清 0,第一操作数赋给 AL/AX/EAX。由此可见,xadd 指令实现的 FAA 和 cmpxchg 指令实现的 CAS 相比,并没有自旋,因此不用担心循环时间过长之后 CPU 资源消耗过大,并且也没有了 CAS 中 ABA 之类的问题 [该问题在 AtomicStampedReference 中,通过增加版本号解决了])

## 源码
# JDK 8 - AtomicInteger
public final int getAndIncrement() {
  return unsafe.getAndAddInt(this, valueOffset, 1);
}

# JDK7 - AtomicInteger
public final int getAndIncrement() {
    for (;;) {
        int current = get();
        int next = current + 1;
        if (compareAndSet(current, next)) return current;
    }
}

## 汇编
# JDK 8
0x0000000002cf49c7: mov    %rbp,0x10(%rsp)
  0x0000000002cf49cc: mov    $0x1,%eax
  0x0000000002cf49d1: lock xadd %eax,0xc(%rdx)  ;*invokevirtual getAndAddInt
                                                ; - java.util.concurrent.atomic.AtomicInteger::incrementAndGet@8 (line 186)

# JDK 7
0x0000000002c207f5: lock cmpxchg %r8d,0xc(%rdx)
  0x0000000002c207fb: sete   %r11b
  0x0000000002c207ff: movzbl %r11b,%r11d        ;*invokevirtual compareAndSwapInt
                                                ; - java.util.concurrent.atomic.AtomicInteger::compareAndSet@9 (line 135)
                                                ; - java.util.concurrent.atomic.AtomicInteger::incrementAndGet@12 (line 206)

## 指令
# JDK 8
XADD—Exchange and Add
  Exchanges the first operand (destination operand) with the second operand (source operand), then loads the sum of the two values into the destination operand. The destination operand can be a register or a memory location; the source operand is a register.
  In 64-bit mode, the instruction’s default operation size is 32 bits. Using a REX prefix in the form of REX.R permits access to additional registers (R8-R15). Using a REX prefix in the form of REX.W promotes operation to 64 bits. See the summary chart at the beginning of this section for encoding data and limits.
  This instruction can be used with a LOCK prefix to allow the instruction to be executed atomically.

TEMP ← SRC + DEST;
SRC ← DEST;
DEST ← TEMP;

# JDK 7
CMPXCHG—Compare and Exchange
  Compares the value in the AL, AX, EAX, or RAX register with the first operand (destination operand). If the two values are equal, the second operand (source operand) is loaded into the destination operand. Otherwise, the destination operand is loaded into the AL, AX, EAX or RAX register. RAX register is available only in 64-bit mode.
  This instruction can be used with a LOCK prefix to allow the instruction to be executed atomically. To simplify the interface to the processor’s bus, the destination operand receives a write cycle without regard to the result of the comparison. The destination operand is written back if the comparison fails; otherwise, the source operand is written into the destination. (The processor never produces a locked read without also producing a locked write.)
  In 64-bit mode, the instruction’s default operation size is 32 bits. Use of the REX.R prefix permits access to additional registers (R8-R15). Use of the REX.W prefix promotes operation to 64 bits. See the summary chart at the beginning of this section for encoding data and limits.

(* Accumulator = AL, AX, EAX, or RAX depending on whether a byte, word, doubleword, or quadword comparison is being performed *)
TEMP ← DEST
IF accumulator = TEMP
  THEN
    ZF ← 1;
    DEST ← SRC;
  ELSE
    ZF ← 0;
    accumulator ← TEMP;
    DEST ← TEMP;
FI;

Tips: 这里 CAS 还有一个预测分支的损耗,有兴趣可以进一步研究一个问题:为何有序数组的 for 循环遍历,会比无序数组快,以及如何解决?

 截止本文编写时间 2017-6-20 (master:111ae5a),一共有 70 个 Atomic 实例在 Zookeeper 中被初始化并使用


(对 IntelliJ IDEA™ 的截图)

G1GC

 在不牺牲吞吐性能的前提下,G1GC 并能更好地控制 GC 的停顿时间,因此非常合适 Zookeeper 这类需要控制心跳超时时间(tickTime)的服务
 在多处理器和大容量内存的环境下,能更快速地整理空闲空间,避免产生过多的内存碎片
 这里只罗列一些常用的配置和特定情况下需要调整的参数,调整到多少才算最佳,还是需要依据 Zookeeper 具体的使用场景Beachmark 的结果GC 日志的分析

Params Meaning Comment
-XX:+UseG1GC 使用 G1GC
-XX:G1HeapRegionSize=4m 设置内存分块的大小(1MB~32MB) 当系统中存在大量大对象的时候,大的 Region 会提升 GC 效率
-XX:MaxGCPauseMillis=200(ms) 此值为建议 JVM 的最长暂停时间 只是建议值,G1GC 只能尽量保证,而无法完全保证
-XX:InitiatingHeap OccupancyPercent=45 设置使用了整个堆的 n% 时,系统开始进行并行 GC 注意是整个堆的百分比。这与 CMS 收集器的类似参数不同
-XX:ParallelGCThreads=n 设置 STW 工作线程数的值 默认线程数由 CPU 数量决定,通常小于逻辑处理器的个数 m
m<=8: n=m n = m ;
m>8 & system!=SPARC: n5/8m n ≈ 5 / 8 ∗ m ;
m>8 & system=SPARC: n5/16m n ≈ 5 / 16 ∗ m
当有较大的 Update RSet 时间时,可以尝试调整此值
-XX:ConcGCThreads=n 设置并行标记的线程数 mixed GC 情况下,较长的 cycle start 时间,可以尝试调整此值
n1/4ParallelGCThreads n ≈ 1 / 4 ∗ P a r a l l e l G C T h r e a d s
-XX:+ParallelRefProcEnabled 当看到有较长的 Ref Proc 建议配置此值 CMS 收集器和 G1 收集器均有这个问题。配置以后暂停明显缩小
LongAdder

 考虑使用 LongAdder(author:Doug Lea)替代 AtomicLong,以提高效率,下面用 100 个线程去 increment 计算 1kw 次,发现效率大致相差 6 倍(已提交 jira 欢迎讨论)

// -Xmx512M -Xms512M -Xmn256M -XX:+AlwaysPreTouch -ea
@Test
public void pressureLongAdder() throws Exception {
    final LongAdder longAdder = new LongAdder();
    ExecutorService executorService = Executors.newCachedThreadPool();
    long startTime = System.currentTimeMillis();
    for (int i = 0; i < 100; i++) {
        executorService.submit(new Thread(() -> {
            for (int j = 0; j < 1000_0000; j++) {
                longAdder.increment();
            }
            System.out.print(String.format("%s %s \t", Thread.currentThread().getId(), longAdder.longValue()));
            /*
            14 19607585     12 36445036     20 38985288     38 76821270     70 117094732    18 127252576
            22 137043349    26 153411172    30 164051380    34 165971155    102 192241678   134 201104979
            158 232657818   46 279030056    174 288502545   94 347965290    198 348060553   118 348087414
            36 353092712    28 357762215    44 365464475    126 379518198   54 379623515    182 380077075
            142 385263911   78 389013887    62 389085727    110 389122678   86 389920423    166 393535019
            150 396382512   190 403100499   32 403161217    208 403197689   206 406065520   16 410725026
            24 415347205    40 415379997    48 415733397    104 418507295   192 423244160   176 455793362
            168 458311865   160 463028656   136 496375440   72 541243645    186 561877000   170 575352229
            162 584152392   154 604552121   138 614092854   64 638151890    114 668705836   58 669235250
            188 699213410   156 729222401   124 754336889   100 784326386   76 813479501    120 827569944
            66 830236567    98 832153503    112 841408676   204 849520891   210 852391130   202 864804732
            172 875603834   194 877222893   200 881090909   88 882809513    80 882846368    56 887174571
            178 889682247   140 901357028   146 902169049   184 904540678   152 915608988   130 917896629
            116 924616135   144 927674541   122 930399321   128 939791111   106 942656234   84 950848174
            96 951904067    90 954910184    74 964338213    196 966487766   82 968307139    52 975854400
            180 977385398   164 978882525   50 980896807    148 988292352   132 989090669   108 996891232
            92 996921398    42 996938988    68 996953941    60 1000000000
             */
        }));
    }
    executorService.shutdown();
    while (!executorService.isTerminated()) {
        Thread.sleep(1);
    }
    long endTime = System.currentTimeMillis();
    System.out.println("\n" + (endTime - startTime));    // 3275 ms
}

// -Xmx512M -Xms512M -Xmn128M -XX:+AlwaysPreTouch -ea
@Test
public void pressureAtomicLong() throws Exception {
    final AtomicLong atomicLong = new AtomicLong();
    ExecutorService executorService = Executors.newCachedThreadPool();
    long startTime = System.currentTimeMillis();
    for (int i = 0; i < 100; i++) {
        executorService.submit(new Thread(() -> {
            for (int j = 0; j < 1000_0000; j++) {
                atomicLong.getAndIncrement();
            }
            System.out.print(String.format("%s %s \t", Thread.currentThread().getId(), atomicLong.longValue()));
            /*
            12 390000000    28 390000000    44 390000000    20 390000000    26 390000000    18 390000000
            80 390000000    56 390000000    96 390000000    24 390000000    88 390000000    72 390000000
            22 390000000    118 390000000   54 390000000    142 390000000   70 390000000    86 390000000
            182 390000000   110 390000000   62 390000000    78 390000000    102 390000000   158 390000000
            150 390000000   46 390000000    38 390000000    126 390000000   94 390000000    134 390000000
            14 390000000    48 390000000    40 390000000    32 390000000    34 390000000    64 390000000
            42 390000000    36 390000000    16 390000000    180 416396554   204 419908287   196 425536497
            92 732203658    30 733835560    202 733835559   210 733873571   146 733878564   186 733883527
            170 733888686   76 733892691    84 733888815    148 733901560   162 733907032   172 733908079
            52 733913280    116 733918421   124 733906868   164 733920945   132 733891348   68 733923672
            108 733924928   156 733926091   60 733921998    140 733927257   188 733928891   154 733871822
            194 733830477   178 733872527   100 733830322   106 748251688   144 1000000000  98 1000000000
            58 1000000000   90 1000000000   130 1000000000  138 1000000000  114 1000000000  104 1000000000
            168 1000000000  200 1000000000  184 1000000000  160 1000000000  174 1000000000  112 1000000000
            190 1000000000  198 1000000000  82 1000000000   206 1000000000  166 1000000000  176 1000000000
            136 1000000000  208 1000000000  74 1000000000   122 1000000000  152 1000000000  192 1000000000
            120 1000000000  128 1000000000  66 1000000000   50 1000000000
             */
        }));
    }
    executorService.shutdown();
    while (!executorService.isTerminated()) {
        Thread.sleep(1);
    }
    long endTime = System.currentTimeMillis();
    System.out.println("\n" + (endTime - startTime));    // 19409 ms
}

 网上已经有比较权威的 Benchmark 测试结果,分别从 吞吐量、任务执行速度、单 CPU 周期内每个线程完成指令的效率、单 CPU 周期内空闲时间(越高则意味着,CPU 消耗越多的时间,来决定哪些用户来控制对象的缓存行)四个方面来说明,LongAdder 更加高效


(图片来源: Java 8 Performance Improvements)

 下面从源码的角度来分析,首先 LongAdder 继承于 Striped64 类,实现了类似 AtomicLong 的一些 add / increment / decrement / sum / longValue 等方法


(对 IntelliJ IDEA™ 的截图)

 分析 LongAdder 里面最为核心的一个 add 方法

/**
 * Adds the given value.
 * @param x the value to add
 */
public void add(long x) {
    Cell[] as; long b, v; int m; Cell a;
    if ((as = cells) != null || !casBase(b = base, b + x)) {
        boolean uncontended = true;
        if (as == null || (m = as.length - 1) < 0 || (a = as[getProbe() & m]) == null ||
            !(uncontended = a.cas(v = a.value, v + x)))
            longAccumulate(x, null, uncontended);
    }
}

 可以看到里面用到了一个 java.util.concurrent.atomic.Striped64.Cell 类,作为最终存放数据的地方,比较特别是,这里是一个数组,而不是 AtomicLong 里面看到的 volatile long 变量,并且 Cell[] 数组的长度是以 2 的指数级进行增长的,到这里多少可以看出 LongAdder 有点想以空间换时间的端倪了。之所以是用 Cell[] 数组,是考虑到可以将更新操作分而治之,不必对单一变量进行竞争,而是将压力均分到整个数组里面,这样如果需要得到 LongAdder 的值,只需要做一次 sum 操作

 并且,看 add 方法的第一个 if 分支,cells 是一个 lazy init 的变量,也就是只要是在单线程无并发的场景下,就会直接调用 casBase 方法完成 CAS 赋值并返回。如此一来,可以节省下创建数组带来的资源消耗。那么,如果在多线程并发的场景下,casBase 执行失败,则会进行第二个 if 分支的判断,这样就可以发挥 Cell[] 的作用了(AtomicLong 中则是用 while 循环不断进行尝试)。此时 Cell[] as 尚未初始化,因此会进入到 if 分支内,执行 longAccumulate 方法

/**
 * Table of cells. When non-null, size is a power of 2.
 */
transient volatile Cell[] cells;

/**
 * Padded variant of AtomicLong supporting only raw accesses plus CAS.
 *
 * JVM intrinsics note: It would be possible to use a release-only
 * form of CAS here, if it were provided.
 */
@sun.misc.Contended static final class Cell {
    volatile long value;
    Cell(long x) { value = x; }
    final boolean cas(long cmp, long val) {
        return UNSAFE.compareAndSwapLong(this, valueOffset, cmp, val);
    }
    // Unsafe mechanics
    private static final sun.misc.Unsafe UNSAFE;
    private static final long valueOffset;
    static {
        try {
            UNSAFE = sun.misc.Unsafe.getUnsafe();
            Class ak = Cell.class;
            valueOffset = UNSAFE.objectFieldOffset
                (ak.getDeclaredField("value"));
        } catch (Exception e) {
            throw new Error(e);
        }
    }
}

 longAccumulate 会首先调用 getProbe 方法获取一个 Probe 当前线程的探测值(利用 java.util.concurrent.ThreadLocalRandom#getProbe 返回随机整数值),因为 Probe 值是通过反射 Thread 类的 threadLocalRandomProbe 变量获取的,而 threadLocalRandomProbe 也是 lazy init,所以如果为 int 默认值 0 的时候,需要用 ThreadLocalRandom.current() 方法进行强制初始化(此处用的是 mix64 伪随机数算法,是 08 年由 Austin Appleby 提出的 MurmurHash3 算法的一种变种实现,可以说已经统一了伪随机领域,可以在 RedisMemcachedCassandraHBaseLuceneElasticSearch 等各大流行框架中看到 MurmurHash 的身影,具体可参考 Doug Lea 的这篇论文)

 随后进入 for (;;) 死循环,这时候会先判断 Cell[] 数组是否为空、长度是否大于 0,如果 Cell[] 未完成初始化,则会去判断 cellsBusy 自旋锁是否为 0,来控制 Cell[] 创建和 resize 大小时的原子性。如果自旋锁为 0,则将其通过 casCellsBusy() 方法设置为 1,之后完成初始化工作并将 cellsBusy 重置为 0(默认 Cell[] 的 size 为 2)

 完成 Cell[] 数组初始化之后,会进入 for (;;) 死循环的第一个 if 分支,计算 as[(n - 1) & h] = as[(2 - 1) & -217768167] = as[1] 获取到一个随机 Cell 是否为空;如果 Cell 为空,则新建 Cell(x) 存入到 Cell[] 的空槽位中;如果 Cell 不为空,则进一步判断 wasUncontended 参数是否为 false,如果是,则说明是预料到可能的冲突,则置为 true 继续尝试新的 Cell;下一个分支 a.cas(v = a.value, ((fn == null) ? v + x : fn.applyAsLong(v, x))) 则是进行对应的操作,这里 fn 为空,则执行 + 累加操作;接下来的一个分支 n >= NCPU || cells != as 则是考虑到 Cell[] 的长度对比操作系统的 可用虚拟 CPU 核数并发竞争的激烈程度,来判断是否碰撞严重,并和下一个分支一起控制 collide 变量来做标示;最后一个 if 分支 cellsBusy == 0 && casCellsBusy(),如果到了这里,仍然没有完成 add() 方法的执行,说明需要通过扩展一倍的 Cell[] 数组来满足当前的并发量,之后再次重试,然后会不出意外地落入 a.cas(v = a.value, ((fn == null) ? v + x : fn.applyAsLong(v, x))) 第三个 if 分支中,最终完成 add() 方法

/**
 * Handles cases of updates involving initialization, resizing,
 * creating new Cells, and/or contention. See above for
 * explanation. This method suffers the usual non-modularity
 * problems of optimistic retry code, relying on rechecked sets of
 * reads.
 *
 * @param x the value
 * @param fn the update function, or null for add (this convention
 * avoids the need for an extra field or function in LongAdder).
 * @param wasUncontended false if CAS failed before call
 */
final void longAccumulate(long x, LongBinaryOperator fn,
                          boolean wasUncontended) {
    int h;
    if ((h = getProbe()) == 0) {
        ThreadLocalRandom.current(); // force initialization
        h = getProbe();
        wasUncontended = true;
    }
    boolean collide = false;                // True if last slot nonempty
    for (;;) {
        Cell[] as; Cell a; int n; long v;
        if ((as = cells) != null && (n = as.length) > 0) {
            if ((a = as[(n - 1) & h]) == null) {
                if (cellsBusy == 0) {       // Try to attach new Cell
                    Cell r = new Cell(x);   // Optimistically create
                    if (cellsBusy == 0 && casCellsBusy()) {
                        boolean created = false;
                        try {               // Recheck under lock
                            Cell[] rs; int m, j;
                            if ((rs = cells) != null &&
                                (m = rs.length) > 0 &&
                                rs[j = (m - 1) & h] == null) {
                                rs[j] = r;
                                created = true;
                            }
                        } finally {
                            cellsBusy = 0;
                        }
                        if (created) break;
                        continue;           // Slot is now non-empty
                    }
                }
                collide = false;
            }
            else if (!wasUncontended)       // CAS already known to fail
                wasUncontended = true;      // Continue after rehash
            else if (a.cas(v = a.value, ((fn == null) ? v + x : fn.applyAsLong(v, x))))
                break;
            else if (n >= NCPU || cells != as) collide = false;            // At max size or stale
            else if (!collide) collide = true;
            else if (cellsBusy == 0 && casCellsBusy()) {
                try {
                    if (cells == as) {      // Expand table unless stale
                        Cell[] rs = new Cell[n << 1];
                        for (int i = 0; i < n; ++i) rs[i] = as[i];
                        cells = rs;
                    }
                } finally {
                    cellsBusy = 0;
                }
                collide = false;
                continue;                   // Retry with expanded table
            }
            h = advanceProbe(h);
        } else if (cellsBusy == 0 && cells == as && casCellsBusy()) {
            boolean init = false;
            try {                           // Initialize table
                if (cells == as) {
                    Cell[] rs = new Cell[2];
                    rs[h & 1] = new Cell(x);
                    cells = rs;
                    init = true;
                }
            } finally {
                cellsBusy = 0;
            }
            if (init) break;
        } else if (casBase(v = base, ((fn == null) ? v + x : fn.applyAsLong(v, x)))) break; // Fall back on using base
    }
}

总结:
* 高并发处理能力
从架构的角度来说,AtomicLong 中使用的是单一变量 volatile long,而在 LongAdder 中使用的是 Cell[],这可以将并发的压力分摊到整个数组上,而非单个变量,可以更加得心应手地处理高并发的场景

  • 低资源消耗
    Cell[] 数组是延迟初始化的,并且在扩容的操作,是在考虑到 CPU 的核数(即机器的处理能力)和数组操作的碰撞次数(即并发的激烈程度)之后才会发生,尽可能地优化了资源的使用率

  • 更为高效的汇编指令
    使用的是 lock xadd 而非 lock cmpxchg 指令来实现原子操作的,避免了 CAS 的 ABA、高并发下不断自旋 导致的 CPU 资源消耗过大、预测分支失败等问题

Zookeeper 相关
leaderServes

 zookeeper.leaderServes 参数用于控制,Leader 节点是否可以被 Client 端连接,默认值为 yes
 理论上 Leader 可以处理所有 Client 的读写请求,但是在 ZooKeeper 的架构设计中,Leader 的主要作用来对事务更新请求以及集群本身的运行时协调
 所以,设置成 no,可使得 Leader 节点不接受 Client 端的连接请求,以提高分布式协调能力

jute.maxbuffer

 jute.maxbuffer 参数用于控制,单个 ZNode 上最大可以存储的数据量,默认值为 1048575(1M - 1, 由BinaryInputArchive.maxBuffer 变量控制)
 因为 ZooKeeper 旨在存储大小为千字节(1KB) 的数据,因此通常情况下,需要下调这个阀值
 需要注意的是,该参数并不是在 Server 和 Client 端同时设置才会生效。实际情况是,在客户端设置后,Zookeeper 将控制从 Server 端读取数据的大小(outgoingBuffer);而在服务端设置后,则是控制从 Client 端写入数据的大小(incomingBuffer
 换句话说,如果 Server 端不设置 maxbuffer,单 ZNode 结点最大可能的写入数据量为 1024102442 1024 ⋅ 1024 − 42 =1048534 = 1048534 。因为,在数据量达到 1M 的默认限制之前,会因为 org.apache.zookeeper.server.NIOServerCnxn#readLength 中的查看 buffer size 时,lenBuffer.getInt() 的调用就已经抛出了 BufferUnderflowException 了。而如果 Client 端不设置 maxbuffer,将不会对从 Server 端读取到的数据包大小做限制。但是,如果设置了,例如 maxbuffer=1024,但是其实 Client 最大能拿到的数据包大约只有 102488=936 1024 − 88 = 936 ,因为除了数据本身,还包含了 ReplyHeader(xid/zxid/err, 例如 1,3274,0\n,一般占 9 字节)Record(Stat,例如 s{2,2,1495790235732,1495790235732,0,2874,0,0,0,0,3273}\n),一般占 55 字节Tag,例如 response,一般占 8 字节 等其他序列化信息

# 设置 Client 端
$ vim $ZOOKEEPER_HOME/bin/zkCli.sh
  # 增加 -Djute.maxbuffer= 参数
  "$JAVA" "-Dzookeeper.log.dir=${ZOO_LOG_DIR}" "-Dzookeeper.root.logger=${ZOO_LOG4J_PROP}"  "-Djute.maxbuffer=1073741824"  \
       -cp "$CLASSPATH" $CLIENT_JVMFLAGS $JVMFLAGS \
       org.apache.zookeeper.ZooKeeperMain "$@"

# 设置 Server 端
$ vim $ZOOKEEPER_HOME/conf/zoo.cfg
  # 增加 jute.maxbuffer= 参数
  jute.maxbuffer=1073741824
globalOutstandingLimit

 zookeeper.globalOutstandingLimit 参数用于控制,服务器最大请求堆积量,默认值为 1000
 为防止服务端资源(内存、CPU、网络)被耗尽,根据服务器最大处理能力,可做适当调整

snapCount & preAllocSize

 zookeeper.snapCount 参数用于控制,两次快照之间事务操作的次数,默认值为 100,000
 zookeeper.preAllocSize 参数用于控制,事务日志文件预分配磁盘的大小,默认值为 65536KB(64MB)
 两个参数配合设置,可以依据特定业务场景下的事务操作数据量 transactionDataSize,按照 snapCounttransactionDataSizepreAllocSize s n a p C o u n t ∗ t r a n s a c t i o n D a t a S i z e ≥ p r e A l l o c S i z e 公式进行适当调整

zookeeper.serverCnxnFactory & zookeeper.clientCnxnSocket

 在 3.5 版本之后,默认使用 Netty,在此之前的版本,Zookeeper 支持将默认使用的 NIO,替代为 Netty。通过在服务端和客户端分配配置以下两个配置项
 zookeeper.serverCnxnFactory 设置为 org.apache.zookeeper.server.NettyServerCnxnFactory
 zookeeper.clientCnxnSocket 设置为 org.apache.zookeeper.ClientCnxnSocketNetty

源码分析

源码环境搭建

下载源码

# 基于 branch-3.4 进行分析
$ git fetch https://github.com/apache/zookeeper.git branch-3.4:branch-3.4

下载安装 Ant

  • Download: apache-ant-1.9.9-bin.tar.gz
  • 安装并设置环境变量

执行 Ant 命令

编译出 IDE 可识别的环境
$ cd %ZOOKEEPER_SOURCE_PATH%
$ ls | grep build.xml
  build.xml
$ ant clean
$ ant eclipse
# 随后使用 Intellij Idea 导入
二次开发后,进行本地测试
# 优先编写 JUnit TestCase 进行测试,随后再利用 `ant test-core` 进行一次整体的测试
$ ant -Dtest.junit.output.format=xml -Dtest.output=yes -Dtest.junit.threads=2 -Dcompile.c++=yes test-core
打包编译
$ ant clean tar -Dbuild.compiler=javac1.7

# 如果报错 warning: macro 'AM_PATH_CPPUNIT' not found in library,则需要先安装 cppunit
# 并且,需要保证在 root 用户下执行 ant 编译
$ yum install cppunit

运行 ZooKeeperServerMain

# 配置 Program arguments
# Usage: ZooKeeperServerMain configfile | port datadir [ticktime] [maxcnxns]
# 传参
  2181 E:\data\zk
# 或者指定配置文件
$ cp zoo_sample.cfg zoo.cfg
$ vim zoo.cfg
  # dataDir=/tmp/zookeeper
  dataDir=E:/data/zk

落脚点

选主机制

Paxos 选主流程
角色

 Proposer(提案者)+ Acceptor(接受者)+ Learner(学习者)

选票

 [n:选票号,v:选票值]

流程

 提案者 A 和 B 各自向每个接受者发送 Prepare 准备请求。提案者 A 的请求首先到达 接受者 XY,并且提议者 B 的请求首先到达接受者 Z

 每个接受者(X / Y / Z)响应自身接收到的第一个 Prepare 准备请求

 接受者 Z 忽略提案者 A 的请求,因为 接受者 Z 已经看到更高编号的提案( 4>2 4 > 2
 接受者 XY 以先前接受到的最高要求(n=2, v=8)提案,回应提出者 B 的请求,并承诺忽略所有较低编号的提案

 提案者 B 向每个接受者发送 Accept 接受请求(先前的提案编号 4 + 最近接受到的最高提案的值 8)

 完成提案过程之后,将最终确定的选票,发送给 Learner 进行学习

(图片来源: Paxos By Example)

ZAB 选主流程
Zookeeper 提供的选主算法

 Zookeeper 提供了 LeaderElection / FastLeaderElection(UDP) / AuthFastLeaderElection(UDP) / FastLeaderElection(TCP) 这四种选主算法(初始化 QuorumPeer 时需指定到 electionAlg 参数),前三种策略因为 UDP 的不可靠性LE 中被选举的 Leader 故障会导致无休止的选举等问题,在 v3.4.0 开始被废弃

Vote 数据结构


(利用 Axure™ 绘制而成)

QuorumCnxManager 网络通讯

 QuorumCnxManager 起到管理 Election 过程中网络连接投票接受和发送的作用。通过在 QuorumCnxManager.Listener 中创建 ServerSocket 对象监听 Leader 选举的通信端口(default:3888),接收到 创建连接的请求后,由 receiveConnection 方法来处理,并在 handleConnection 方法中对连接的合法性进行处理,包括 接受的数据是否合法(大小不可小于 0,大于 maxBuffer 2048 [硬编码])、权限控制。之后,会对 SID 进行判断,如果 mySID 大于接受到的 SID 要大,则会执行 closeSocket 方法断开连接,并执行 SendWorker#finish 关闭对应 SID 的 SendWorker。反之,则会创建 SendWorker 和 RecvWorker 并启动。此举可用来确保,只有 SID 更高的节点才会主动创建连接,避免重复的 TCP 连接


(利用 Axure™ 绘制而成)

Leader-Election 大致过程


(图片来自:《 Zookeeper》)

LE 实现细节

 最终进行选举的逻辑实现,都在 FastLeaderElection 中

(利用 Axure™ 绘制而成)

 首先会发送投给自身的一条选票,并进入 LOOKING 状态,不断接受外部的选票。再接收到选票之后,会对选票的轮次(logicalclock)事务 ID(ZXID)服务器 ID(SID)依次进行比较,如果有一项比自身的值更大,则会更新自身的选票,并重新发送给其他 Quorum;否则,将忽略外部接受的选票,并统计是否已过半。最终,如果选票已经被过半数的 Quorum 节点所接受(Accept),则更新服务器状态,完成选举;否则,继续进入 LOOKING 状态,重复之前的步骤


(利用 Axure™ 绘制而成)

 相关实现代码如下

/**
 * Starts a new round of leader election. Whenever our QuorumPeer
 * changes its state to LOOKING, this method is invoked, and it
 * sends notifications to all other peers.
 */
public Vote lookForLeader() throws InterruptedException {
    /*
     * Loop in which we exchange notifications until we find a leader
     */
    while ((self.getPeerState() == ServerState.LOOKING) && (!stop)){
        /*
         * Sends more notifications if have not received enough.
         * Otherwise processes new notification.
         */
        if(n == null) { // ... }
        else if (self.getCurrentAndNextConfigVoters().contains(n.sid)) {
            /*
             * Only proceed if the vote comes from a replica in the current or next voting view.
             */
            switch (n.state) {
            case LOOKING:
                if (getInitLastLoggedZxid() == -1) {
                    LOG.debug("Ignoring notification as our zxid is -1"); break;
                }
                if (n.zxid == -1) {
                    LOG.debug("Ignoring notification from member with -1 zxid" + n.sid); break;
                }
                // If notification > current, replace and send messages out
                if (n.electionEpoch > logicalclock.get()) {
                    logicalclock.set(n.electionEpoch);
                    recvset.clear();
                    if (totalOrderPredicate(n.leader, n.zxid, n.peerEpoch, getInitId(), getInitLastLoggedZxid(), getPeerEpoch())) {
                        updateProposal(n.leader, n.zxid, n.peerEpoch);
                    } else {
                        updateProposal(getInitId(), getInitLastLoggedZxid(), getPeerEpoch());
                    }
                    sendNotifications();
                } else if (n.electionEpoch < logicalclock.get()) {
                    if(LOG.isDebugEnabled()){
                        LOG.debug("Notification election epoch is smaller than logicalclock. n.electionEpoch = 0x"
                                + Long.toHexString(n.electionEpoch)
                                + ", logicalclock=0x" + Long.toHexString(logicalclock.get()));
                    }
                    break;
                } else if (totalOrderPredicate(n.leader, n.zxid, n.peerEpoch, proposedLeader, proposedZxid, proposedEpoch)) {
                    updateProposal(n.leader, n.zxid, n.peerEpoch);
                    sendNotifications();
                }
                recvset.put(n.sid, new Vote(n.leader, n.zxid, n.electionEpoch, n.peerEpoch)); // ...
            case OBSERVING: // ...
            case FOLLOWING: // ...
            case LEADING: // ...
            default: // ...
            }
        }
    }
}

/**
 * Check if a pair (server id, zxid) succeeds our current vote.
 *
 * @param id    Server identifier
 * @param zxid  Last zxid observed by the issuer of this vote
 */
protected boolean totalOrderPredicate(long newId, long newZxid, long newEpoch, long curId, long curZxid, long curEpoch) {
    if (self.getQuorumVerifier().getWeight(newId) == 0) return false;
    /*
     * We return true if one of the following three cases hold:
     * 1- New epoch is higher
     * 2- New epoch is the same as current epoch, but new zxid is higher
     * 3- New epoch is the same as current epoch, new zxid is the same as current zxid, but server id is higher.
     */
    return ((newEpoch > curEpoch) ||
            ((newEpoch == curEpoch) &&
            ((newZxid > curZxid) || ((newZxid == curZxid) && (newId > curId)))));
}
ZAB 和 Paxos 的区别

 ZAB,Atomic Broadcast 协议,保证了发给各副本的消息顺序相同(因为 ZooKeeper 是一个树形结构,很多操作都要先检查才能确定能不能执行,如 /a/b 需要在 先创建好 /a 的前提下,才能创建 /a/b
 Paxos 保证不了全序顺序,Paxos 算法的确是不关心请求之间的逻辑顺序,而只考虑数据之间的全序

 ZAB 的核心思想,形象的说就是保证任意时刻只有一个节点是 Leader,所有更新事务由 Leader发起去更新所有副本(称为 Follower),更新时用的就是 Two-phase 两阶段提交协议,只要多数节点 prepare 成功,就通知他们 commit
 各 Follower 要按当初 Leader 让他们 prepare 的顺序来 apply 事务
 另外,因为 ZAB 处理的事务永远不会回滚,ZAB 对 2PC 阶段做了点优化,多个事务只要通知 ZXID 最大的那个 commit,之前的各 Follower 会统统 commit

 本质上,二者的设计目标是不一样的, ZAB 协议主要用于构建一个髙可用的分布式数据主备系统,而 Paxos 算法则是为了构建一个分布式的一致性状态机系统

数据相关

Zookeeper 内存结构

 ZKDatabase 作为 Zookeeper 内存数据库的主体,包含了 Session 会话DataTreeSnapshot(记录 ZooKeeper 服务器上某一个时刻全量的内存数据内容)、事务日志(事务操作时间 、客户端会话 ID、 CXID [客户端的操作序列号]、ZXID、操作类型、会话超时时间、节点路径、节点数据内容、节点的 ACL 信息、 是否为临时节点 和 父节点的子节点版本号)等信息。ZKDatabase 会定时地向磁盘 dump 快照数据,并会在 ZooKeeper 服务端节点启动/重启的时候,read 磁盘上的事务日志Snapshot 文件,load 相关数据到内存中,重新恢复出整个 ZKDatabase


(利用 Axure™ 绘制而成)

ZookeeperServer 初始化流程

 启动 Zookeeper 服务器节点的流程,从 ServerMain#main 方法开始。主要的调用链如下:

org.apache.zookeeper.server.ZooKeeperServerMain#runFromConfig
org.apache.zookeeper.server.ServerCnxnFactory#startup(org.apache.zookeeper.server.ZooKeeperServer)
org.apache.zookeeper.server.NettyServerCnxnFactory#startup      // 这里暂时不考虑 NIO 的实现,只看 Netty 实现的 `ServerCnxnFactory`
org.apache.zookeeper.server.ZooKeeperServer#startdata
org.apache.zookeeper.server.ZooKeeperServer#loadData

 最终 Session 和 数据的恢复,都将在 loadData 方法中完成。ZKServer 首先利用 ZKDatabase#loadDataBase 调用 FileTxnSnapLog#restore 方法,从磁盘中反序列化 100(硬编码了在 findNValidSnapshots(100) 代码里)个有效的 Snapshot 文件,恢复出 DataTreesessionsWithTimeouts 两个数据结构,以便获取到最新有效的 ZXID,并使用 FileTxnSnapLog#processTransaction 方法增量地处理 DataTree 中的事务。随后根据 Session 超时时间,将超时的 Session 从 DataTree#ephemerals 变量(Map: pathList>)中移除。同时,利用 ZooKeeperServer#takeSnapshot 方法,将 DataTree 实例持久化到磁盘,创建一个全新的 Snapshot 文件

Snapshot 策略

 首先,我们可以看到 SyncRequestProcessor 类的 run() 方法中,ZooKeeperServer#takeSnapshot 方法的调用是在一个新起的线程中发起的,因此 Snapshot 流程是异步发起的

// org.apache.zookeeper.server.SyncRequestProcessor#run
snapInProcess = new ZooKeeperThread("Snapshot Thread") {
  public void run() {
    try {
      zks.takeSnapshot();
    } catch(Exception e) {
      LOG.warn("Unexpected exception", e);
    }
  }
};
snapInProcess.start();

 另外,在启动 Snapshot 线程之前,通过 logCount>(snapCount/2+randRoll) l o g C o u n t > ( s n a p C o u n t / 2 + r a n d R o l l ) 公式进行计算,是否应该发起 Snapshot(同时会保证前一个 Snapshot 已经结束才会开始)。由此可见 Zookeeper 的设计巧妙之处,这里加入了 randRoll 随机数,可以降低所有 Server 节点同时发生 Snapshot 的概率,从而避免因 Snapshot 导致服务受影响。因为,Snapshot 的过程会消耗大量的 磁盘 IOCPU 等资源,所以全部节点同时 Snapshot 会严重影响集群的对外服务能力

请求流程

 按照 ZooKeeperServer 的文档中所示,事务处理的大体流程链应该为 PrepRequestProcessor - SyncRequestProcessor - FinalRequestProcessor。因此,这也将是我们研究源码的阅读顺序

Zookeeper 乐观锁

 分布式中锁分类为,悲观锁(又称悲观并发控制 **P**essimistic **C**oncurrency **C**ontrol,PCC)和 乐观锁(又称乐观并发控制 **O**ptimistic **C**oncurrency **C**ontrol,OCC)。乐观锁事务控制流程,分为 数据读取写入校验数据写入三个阶段,常见实现为 JDK 中的 CAS(synchronized / Atomic 类)。如果是并发竞争少事务冲突频率低的场景,可使用乐观锁写入校验成功就执行,不成功就失败回滚;如果冲突频率高或者重试代价大的场景,则建议使用悲观锁

 而 Zookeeper 中,是在执行 OpCode.setData 操作的时候,对 version 版本进行校验,从而实现了 乐观锁写入校验流程。如果,发现 versioncurrentVersion 是不一致的,则抛出 BadVersionException 异常进而回滚。不过,如果 version 的值为 -1,意味着 Client 的此次操作请求,不需要进行 乐观锁来控制并发,则无需校验。此处,只是对 version 进行了一次数据写入前的校验,如果并发导致失败了,将直接返回 KeeperErrorCode = BadVersion 错误信息

// org.apache.zookeeper.server.PrepRequestProcessor#pRequest2Txn
protected void pRequest2Txn(int type, long zxid, Request request, Record record, boolean deserialize)
    throws KeeperException, IOException, RequestProcessorException
{
    request.hdr = new TxnHeader(request.sessionId, request.cxid, zxid, zks.getTime(), type);
    switch (type) {
        case OpCode.create: //...
        case OpCode.delete: //...
        case OpCode.setData: //...
            zks.sessionTracker.checkSession(request.sessionId, request.getOwner());
            SetDataRequest setDataRequest = (SetDataRequest)record;
            if(deserialize)
                ByteBufferInputStream.byteBuffer2Record(request.request, setDataRequest);
            path = setDataRequest.getPath();
            validatePath(path, request.sessionId);
            nodeRecord = getRecordForPath(path);
            checkACL(zks, nodeRecord.acl, ZooDefs.Perms.WRITE,
                    request.authInfo);
            version = setDataRequest.getVersion();
            int currentVersion = nodeRecord.stat.getVersion();
            if (version != -1 && version != currentVersion) {  // CAS
                throw new KeeperException.BadVersionException(path);
            }
            version = currentVersion + 1;
            request.txn = new SetDataTxn(path, setDataRequest.getData(), version);
            nodeRecord = nodeRecord.duplicate(request.hdr.getZxid());
            nodeRecord.stat.setVersion(version);
            addChangeRecord(nodeRecord);
            break;
        case OpCode.setACL: //...
        case OpCode.createSession: //...
        case OpCode.closeSession: //...
        case OpCode.check: //...
    }
}
Zookeeper 连接地址列表的连接策略

 Zookeeper 考虑到第一次连接的时候,使用 StaticHostProvider#resolveAndShuffle 方法进行一次 shuffle,避免第一台节点处于热点状态;而 Zookeeper 的 Session 连接断开之后,会使用 StaticHostProvider#next 方法,从第一个连接地址开始逐个尝试;另外,在集群扩容/缩容的时候,使用 StaticHostProvider#updateServerList 方法,更新服务器列表,并计算集群扩容的概率,对连接做重新分配,使得集群的负载更加均衡

Follower 和 Observer 请求转发

 为了事务的一致性,所有 Follower、Observer 接收到的事务请求,都会通过 Learner#request 方法,将请求发送给 Leader 节点来处理

// org.apache.zookeeper.server.quorum.FollowerRequestProcessor | ObserverRequestProcessor
switch (request.type) {
    case OpCode.sync:
        zks.pendingSyncs.add(request);
        zks.getFollower().request(request);
        break;
    case OpCode.create:
    case OpCode.create2:
    case OpCode.createTTL:
    case OpCode.createContainer:
    case OpCode.delete:
    case OpCode.deleteContainer:
    case OpCode.setData:
    case OpCode.reconfig:
    case OpCode.setACL:
    case OpCode.multi:
    case OpCode.check:
        zks.getFollower().request(request);
        break;
    case OpCode.createSession:
    case OpCode.closeSession:
        // Do not forward local sessions to the leader.
        if (!request.isLocalSession()) {
            zks.getFollower().request(request);
        }
        break;
}
Watch 事件触发流程

 所有的 Watch 事件都通过 WatchManager#triggerWatch 进行触发。该方法会从 HashMap> watchTable 中,通过 ServerCnxn#process 方法,将 Watch 对象取出(HashMap#remove 意味着 Watch 只会在 Zookeeper 触发一次,不过 Curator 框架中已封装,只需注册一次,可多次触发 Watch 事件),并随后通过 ServerCnxn#sendResponse 封装并发送网络包

 由此可见,如果 Socket 通讯出现网络故障等问题,可能会丢失 Watch 事件。同时,因为注册一次之后,Watcher 就会从 watchTable 中被移除,再次注册完成之前,发生的 Watch 事件,将无法被监控到。并且,如果 Client 端和 Server 端断开连接之后,因为服务端并没有对 Watch 事件做任何留存,所以重连之后也是无法接受到任何 Watch 事件的(因此,程序中需要在接收到 disconnect 事件之后,进入某种安全模式,使得程序更为谨慎地处理 “依赖于 Zookeeper Watch 的操作”)。另外,还要一个需要注意的地方是,同一个 ZNode 节点被 Watch 了多种事件,针对该 ZNode 节点 Client 端只会获取到一个 Watch 事件(例如,监控 ZNode A 的 exists / getData 事件,在删除了 A 之后,Client 端只会接受到一个 Delete 事件)

 总而言之,强依赖于 Zookeeper Watch 事件的程序逻辑,都是不可靠的

// [NIO 相关的流程]

// org.apache.zookeeper.server.NIOServerCnxn#sendResponse
// org.apache.zookeeper.server.NIOServerCnxn#sendBuffer
private final Queue outgoingBuffers = new LinkedBlockingQueue<>();
public void sendBuffer(ByteBuffer bb) {
    if (LOG.isTraceEnabled()) {
        LOG.trace("Add a buffer to outgoingBuffers, sk " + sk + " is valid: " + sk.isValid());
    }
    outgoingBuffers.add(bb);
    requestInterestOpsUpdate();
}

// Queue 队列被异步发送,整个调用流程如下:
// org.apache.zookeeper.server.quorum.QuorumPeerMain#main
// org.apache.zookeeper.server.quorum.QuorumPeerMain#initializeAndRun
// org.apache.zookeeper.server.quorum.QuorumPeerMain#runFromConfig
// org.apache.zookeeper.server.NIOServerCnxnFactory#configure
// org.apache.zookeeper.server.NIOServerCnxnFactory#ZOOKEEPER_NIO_NUM_SELECTOR_THREADS
如果没有配置该选项,则默认使用 Math.max((int) Math.sqrt((float) numCores/2), 1) 公式进行计算 SelectorThread 的线程数量
// org.apache.zookeeper.server.NIOServerCnxnFactory.SelectorThread#run
// org.apache.zookeeper.server.NIOServerCnxnFactory.SelectorThread#select
// org.apache.zookeeper.server.NIOServerCnxnFactory.SelectorThread#handleIO
// org.apache.zookeeper.server.WorkerService#schedule(org.apache.zookeeper.server.WorkerService.WorkRequest)
// org.apache.zookeeper.server.WorkerService#schedule(org.apache.zookeeper.server.WorkerService.WorkRequest, long)
worker.execute(scheduledWorkRequest);  // 启动 ExecutorService
// org.apache.zookeeper.server.WorkerService.ScheduledWorkRequest#run
// org.apache.zookeeper.server.NIOServerCnxnFactory.IOWorkRequest#doWork
// org.apache.zookeeper.server.NIOServerCnxn#doIO
// org.apache.zookeeper.server.NIOServerCnxn#handleWrite



// [Netty 相关的流程]

// org.apache.zookeeper.server.NettyServerCnxn#sendResponse
// org.apache.zookeeper.server.NettyServerCnxn#sendBuffer
@Override
public void sendBuffer(ByteBuffer sendBuffer) {
    if (sendBuffer == ServerCnxnFactory.closeConn) {
        close();
        return;
    }
    channel.write(wrappedBuffer(sendBuffer));
    packetSent();
}
mntr 四字命令使用 JVMFLAGS 和 SERVER_JVMFLAGS 中配置的 JVM 参数

 通过增加 START_SERVER_JVMFLAGS 参数,来避免这个问题(已提交 PR#302)

架构设计

Zookeeper 的 Server ID 如果重复会有什么风险?

 截止 v3.5.3 并没有对这个问题进行代码层级的限制,已提交 ZOOKEEPER-2784 issues 和 对应的 #257 PR,进行反馈和修复

Zookeeper 的事务 ID 超过 32 位,Zookeeper 的 Leader 节点抛出 XidRolloverException 强制进行 re-election

 ZXID 的高 32 位用于 epoch(LE 选举轮次)、低 32 位是一个记录 Leader 节点每一次改动的 counter
 如果是 1k/s ops,那么只要 232/(864001000) 2 32 / ( 86400 ∗ 1000 ) 49.7 ≈ 49.7 days 就会将 ZXID 耗尽

重度依赖 Zookeeper 的应用,可能一周内发生 Zookeeper 自重启一两次,每次需 30 秒,有无更好的解决方法

 在 ZXID 快要溢出的时候,一次性进行自重启的所有操作,必然会比较慢。可以考虑把非依赖的关键步骤拆开,提前做好自重启的准备,以减少延迟

/**
 * create a proposal and send it out to all the members
 *
 * @param request
 * @return the proposal that is queued to send to all the members
 */
public Proposal propose(Request request) throws XidRolloverException {
    /**
     * Address the rollover issue. All lower 32bits set indicate a new leader
     * election. Force a re-election instead. See ZOOKEEPER-1277
     */
    if ((request.zxid & 0xffffffffL) == 0xffffffffL) {
        String msg = "zxid lower 32 bits have rolled over, forcing re-election, and therefore new epoch start";
        shutdown(msg);
        throw new XidRolloverException(msg);
    } // ...
}

 或者,重新设计 ZXID,高 24 位用于 epoch,低 40 位用于 counter,那么意味着 Math.min(224/(24365), M a t h . m i n ( 2 24 / ( 24 ∗ 365 ) , 240/(864001000365)) 2 40 / ( 86400 ∗ 1000 ∗ 365 ) ) Math.min(1915.2,34.9) M a t h . m i n ( 1915.2 , 34.9 ) = 34.9 34.9 years 之后才会进行一次强制选举。不过考虑到 ZXIDlong 类型,32 bit 的 JVM 在对 long 读写时(和 double 类型一样),是分为高 32 位和 低 32 位两部分进行操作的,由于 ZXID 变量没有用 volatile 修饰,且也没有装箱为对应的引用类型(Long / Double),属于非原子操作。因此,如果将高 32 位的低 8 位划分给整个 long 的低 32 位,就可能存在并发的问题了(已提交 Jira / PR,欢迎加入讨论)

遇到的坑

下载依赖超时

$ vim build.xml
  # 替换 ant-eclipse 下载地址
  # get src="http://downloads.sourceforge.net/project/ant-eclipse/ant-eclipse/1.0/ant-eclipse-1.0.bin.tar.bz2"
  get src="http://ufpr.dl.sourceforge.net/project/ant-eclipse/ant-eclipse/1.0/ant-eclipse-1.0.bin.tar.bz2"

$ vim ivy.xml
  # 增加 commons-coolections 依赖
  "commons-collections" name="commons-collections" rev="3.0"/>

常见误区

Paxos 的强一致性

 Paxos 本身只是用来选主的算法,用来在分布式节点之间达成共识(Consensus)。只有到了上层应用(Zookeeper / Redis),出现 数据 “副本” 的概念,在维持其一致性(Consistency)的时候 才会有强弱之分(一致性模型 vs. 一致性协议)
 而且,整个副本系统的一致性级别,并不只取决于共识算法,客户端的实现规范也会起到关键作用。如果,Client 客户端允许访问 非 Leader 节点 获取数据,而过半写成功导致有部分 Follower 节点数据副本并没有完成更新(也可以调用 sync() 方法完成强制同步),仍然会表现出弱一致性

有了逻辑时钟后,物理时钟就不再需要了


(图片来源: wikimedia.org)

 上图就是一个经典的 Lamport 逻辑时钟图,大致的算法描述如下(详见该篇论文 和 开源实现):

  • 每个事件对应一个 Lamport 时间戳(初始值为 0

  • 如果,事件在自己本节点内发生,时间戳加 1 即可

  • 如果,事件属于发送事件,时间戳加 1 并在消息中带上该时间戳

  • 如果,事件属于接收事件 =Max()+1 时 间 戳 = M a x ( 本 地 时 间 戳 , 消 息 中 的 时 间 戳 ) + 1

     并且规定,Lamport 逻辑时钟内做全序,是按事件的时间戳大小为时间排序的,任何两个事件不可能在同一时间发生(并发发生的 B4C3 被认为是有先后顺序的,这里直接按照进程 ID 的大小认定事件发生顺序),并且任何消息收到的时间都应该比发送的时间晚

     同时,如果 B4C3 两个事件之间,在逻辑时钟系统之外,有额外的操作,使其有了依赖关系 B4 -> C3,如果 C 进程的 ID 又大于 B 进程的 ID,则无法完成全序操作。因此,需要通过 FTP 时钟同步 或者 Berkeley 算法去调整误差 的方式加入物理时钟。物理时钟的引入,是为了能够区分,系统是处于事件间隔中,还是出错中断了(有兴趣,还可深入研究下 Lamport Logic Lock 的演化版 Vector clock)

依赖组件梳理

梳理点

  • 依赖框架中哪部分组件在使用 Zookeeper,以及使用方式
  • 存储的数据(路径、大小、读写的频率 等)
  • 对 Zookeeper 可能产生的压力(并发度、Watcher 数 等)
  • 是否对 Zookeeper 强依赖

依赖 Zookeeper 的框架

Yarn

遇到的坑
滚动重启升级 Zookeeper 之后,Yarn 一直重试
  • 描述

    一直重连的原因是,Yarn 发送的数据包超过了 1MB (我们遇到的情况是 1.3MB),服务端默认会设置 1MB 的阀值,避免影响 Zookeeper 自身的服务

  • 解决

    重启 ResourceManager 即可

Kafka

HBase

遇到的坑
KeeperErrorCode = Session expired for /hbase/meta-region-server
  • 描述
    连接 HBase 的 Client 突然一段时间 间歇性地报错 KeeperErrorCode = Session expired for /hbase/meta-region-server

  • 解决

    • 查看 HBase、Zookeeper 的日志和监控告警,并没有发现异常(也就是说,集群没有故障,也没有出现负载过大的情况)
    • 发现 /hbase/meta-region-server ZNode 结点保存的信息(meta 表存在于哪一个 RegionServer),并没有和 HBase 集群真实的情况不一致。并且,meta 表的迁移,除非机房断电之类的异常情况,一般是很少发生的
    • 尝试在 HBase Client 端的程序,加上 -verbose:gc -XX:+PrintGCDetails -XX:+PrintGCDateStamps -Xloggc:gc.log 的 JVM 参数,来观察是否是客户端程序发生 Long GC 导致的
fsync-ing the write ahead log in SyncThread:1 took 5051ms which will adversely effect operation latency
2017-06-28 15:28:01,149 [myid:1] - WARN  [QuorumPeer[myid=1]/0:0:0:0:0:0:0:0:2181:Follower@89] - Exception when following the leader
java.io.EOFException
        at java.io.DataInputStream.readInt(DataInputStream.java:392)
        at org.apache.jute.BinaryInputArchive.readInt(BinaryInputArchive.java:63)
        at org.apache.zookeeper.server.quorum.QuorumPacket.deserialize(QuorumPacket.java:83)
        at org.apache.jute.BinaryInputArchive.readRecord(BinaryInputArchive.java:103)
        at org.apache.zookeeper.server.quorum.Learner.readPacket(Learner.java:153)
        at org.apache.zookeeper.server.quorum.Follower.followLeader(Follower.java:85)
        at org.apache.zookeeper.server.quorum.QuorumPeer.run(QuorumPeer.java:786)
2017-06-28 15:28:02,198 [myid:1] - INFO  [QuorumPeer[myid=1]/0:0:0:0:0:0:0:0:2181:Follower@166] - shutdown called
java.lang.Exception: shutdown Follower
        at org.apache.zookeeper.server.quorum.Follower.shutdown(Follower.java:166)
        at org.apache.zookeeper.server.quorum.QuorumPeer.run(QuorumPeer.java:790)
2017-06-28 15:28:02,198 [myid:1] - INFO  [NIOServerCxn.Factory:0.0.0.0/0.0.0.0:2181:NIOServerCnxnFactory@197] - Accepted socket connection from /0:0:0:0:0:0:0:1:39781
2017-06-28 15:28:02,198 [myid:1] - ERROR [FollowerRequestProcessor:1:FollowerRequestProcessor@93] - Unexpected exception causing exit
java.net.SocketException: Socket closed
        at java.net.SocketOutputStream.socketWrite(SocketOutputStream.java:121)
        at java.net.SocketOutputStream.write(SocketOutputStream.java:159)
        at java.io.BufferedOutputStream.flushBuffer(BufferedOutputStream.java:82)
        at java.io.BufferedOutputStream.flush(BufferedOutputStream.java:140)
        at org.apache.zookeeper.server.quorum.Learner.writePacket(Learner.java:139)
        at org.apache.zookeeper.server.quorum.Learner.request(Learner.java:188)
        at org.apache.zookeeper.server.quorum.FollowerRequestProcessor.run(FollowerRequestProcessor.java:88)
2017-06-28 15:28:02,198 [myid:1] - WARN  [SyncThread:1:FileTxnLog@334] - fsync-ing the write ahead log in SyncThread:1 took 5051ms which will adversely effect operation latency. See the ZooKeeper troubleshooting guide
2017-06-28 15:28:02,198 [myid:1] - INFO  [QuorumPeer[myid=1]/0:0:0:0:0:0:0:0:2181:NIOServerCnxn@1007] - Closed socket connection for client /10.37.2.145:47384 which had sessionid 0x15cc330c7d99117
2017-06-28 15:28:02,199 [myid:1] - WARN  [SyncThread:1:SendAckRequestProcessor@64] - Closing connection to leader, exception during packet send
java.net.SocketException: Socket closed
        at java.net.SocketOutputStream.socketWrite(SocketOutputStream.java:121)
        at java.net.SocketOutputStream.write(SocketOutputStream.java:159)
        at java.io.BufferedOutputStream.flushBuffer(BufferedOutputStream.java:82)
        at java.io.BufferedOutputStream.flush(BufferedOutputStream.java:140)
        at org.apache.zookeeper.server.quorum.Learner.writePacket(Learner.java:139)
        at org.apache.zookeeper.server.quorum.SendAckRequestProcessor.flush(SendAckRequestProcessor.java:62)
        at org.apache.zookeeper.server.SyncRequestProcessor.flush(SyncRequestProcessor.java:204)
        at org.apache.zookeeper.server.SyncRequestProcessor.run(SyncRequestProcessor.java:131)
2017-06-28 15:28:02,198 [myid:1] - INFO  [FollowerRequestProcessor:1:FollowerRequestProcessor@95] - FollowerRequestProcessor exited loop!

 FollowerRequestProcessor.java:88 这行代码是 OpCode.closeSession 操作转发给 Leader,需要发送一个请求包,但是网络问题导致 Socket 连接断开了;另外,fsync-ing the write ahead log in SyncThread:1 took 5051ms which will adversely effect operation latency 告警,意味着 FileTxnLog#commit 进行写事务日志到磁盘的过程过慢

 这里可能会导致一个疑问,到底是因为需要写入的事务日志过大导致的告警,还是因为机器磁盘当前的 I/O 负载比较高,所以这里最好再打印出 FileChannel#size() 的信息(已提交 PR#296)

Druid

遇到的坑
DruidTaskResolver: Poll failed, trying again
  • 描述

    28 Feb 2018 10:41:45,065 WARN  [DruidTaskResolver[com.metamx.tranquility.druid.IndexService@214fd977]] (?.?:?)  - Poll failed, trying again at[2018-02-28T10:42:03.867+08:00].
    java.lang.IllegalStateException: Service is closed
    at com.metamx.tranquility.druid.IndexService.com$metamx$tranquility$druid$IndexService$$client(IndexService.scala:57)
      	at com.metamx.tranquility.druid.IndexService$$anonfun$call$1.apply(IndexService.scala:131)
    at com.metamx.tranquility.druid.IndexService$$anonfun$call$1.apply(IndexService.scala:131)
      	at com.metamx.tranquility.finagle.FutureRetry$.onErrors(FutureRetry.scala:47)
      	at com.metamx.tranquility.druid.IndexService.call(IndexService.scala:130)
      	at com.metamx.tranquility.druid.IndexService.runningTasks(IndexService.scala:101)
      	at com.metamx.tranquility.finagle.DruidTaskResolver$$anon$1.run(DruidTaskResolver.scala:83)
    at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
    at java.util.concurrent.FutureTask.run(FutureTask.java:266)
    at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
    at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
    at java.lang.Thread.run(Thread.java:745)
  • 解决

    定位原因是 Apache Curator 2.11.1 的 bug(详见 CURATOR-394 和 PR#208),将 patch 代码合进 Curator 的 curator-x-discovery 模块后,重新打包 curator-x-discovery-2.11.1.jar,并替换原生的,即可

Storm

遇到的坑
Unable to load database on disk
  • 描述

    2017-12-08 22:01:01,943 [myid:4] - INFO  [NIOServerCxn.Factory:0.0.0.0/0.0.0.0:2181:NIOServerCnxnFactory@197] - Accepted socket connection from /0:0:0:0:0:0:0:1:24756
    2017-12-08 22:01:01,943 [myid:4] - INFO  [NIOServerCxn.Factory:0.0.0.0/0.0.0.0:2181:NIOServerCnxn@838] - Processing srst command from /0:0:0:0:0:0:0:1:24756
    2017-12-08 22:01:01,944 [myid:4] - INFO  [Thread-342422:NIOServerCnxn@1018] - Closed socket connection for client /0:0:0:0:0:0:0:1:24756 (no session established for client)
    2017-12-08 22:02:01,111 [myid:4] - INFO  [NIOServerCxn.Factory:0.0.0.0/0.0.0.0:2181:NIOServerCnxnFactory@197] - Accepted socket connection from /0:0:0:0:0:0:0:1:25076
    2017-12-08 22:02:01,111 [myid:4] - INFO  [NIOServerCxn.Factory:0.0.0.0/0.0.0.0:2181:NIOServerCnxn@838] - Processing ruok command from /0:0:0:0:0:0:0:1:25076
    2017-12-08 22:02:01,112 [myid:4] - INFO  [Thread-342423:NIOServerCnxn@1018] - Closed socket connection for client /0:0:0:0:0:0:0:1:25076 (no session established for client)
    22017-12-08 22:46:17,702 [myid:] - INFO  [main:QuorumPeerConfig@103] - Reading configuration from: /home/zookeeper/software/zookeeper/bin/../conf/zoo.cfg
    2017-12-08 22:46:17,730 [myid:] - INFO  [main:QuorumPeerConfig@340] - Defaulting to majority quorums
    2017-12-08 22:46:17,793 [myid:4] - INFO  [main:DatadirCleanupManager@78] - autopurge.snapRetainCount set to 3
    2017-12-08 22:46:17,794 [myid:4] - INFO  [main:DatadirCleanupManager@79] - autopurge.purgeInterval set to 1
    2017-12-08 22:46:17,796 [myid:4] - INFO  [PurgeTask:DatadirCleanupManager$PurgeTask@138] - Purge task started.
    2017-12-08 22:46:17,855 [myid:4] - INFO  [main:QuorumPeerMain@127] - Starting quorum peer
    2017-12-08 22:46:18,193 [myid:4] - INFO  [main:NIOServerCnxnFactory@94] - binding to port 0.0.0.0/0.0.0.0:2181
    2017-12-08 22:46:18,266 [myid:4] - INFO  [main:QuorumPeer@959] - tickTime set to 2000
    2017-12-08 22:46:18,266 [myid:4] - INFO  [main:QuorumPeer@979] - minSessionTimeout set to -1
    2017-12-08 22:46:18,266 [myid:4] - INFO  [main:QuorumPeer@990] - maxSessionTimeout set to -1
    2017-12-08 22:46:18,266 [myid:4] - INFO  [main:QuorumPeer@1005] - initLimit set to 10
    2017-12-08 22:46:18,650 [myid:4] - INFO  [main:FileSnap@83] - Reading snapshot /data/zookeeper/datadir/version-2/snapshot.e72200034
    2017-12-08 22:46:18,831 [myid:4] - INFO  [PurgeTask:DatadirCleanupManager$PurgeTask@144] - Purge task completed.
    2017-12-08 22:46:31,861 [myid:4] - ERROR [main:QuorumPeer@497] - Unable to load database on disk
    java.io.EOFException
          at java.io.DataInputStream.readInt(DataInputStream.java:392)
          at org.apache.jute.BinaryInputArchive.readInt(BinaryInputArchive.java:63)
          at org.apache.zookeeper.server.persistence.FileHeader.deserialize(FileHeader.java:64)
          at org.apache.zookeeper.server.persistence.FileTxnLog$FileTxnIterator.inStreamCreated(FileTxnLog.java:580)
          at org.apache.zookeeper.server.persistence.FileTxnLog$FileTxnIterator.createInputArchive(FileTxnLog.java:599)
          at org.apache.zookeeper.server.persistence.FileTxnLog$FileTxnIterator.goToNextLog(FileTxnLog.java:565)
          at org.apache.zookeeper.server.persistence.FileTxnLog$FileTxnIterator.next(FileTxnLog.java:647)
          at org.apache.zookeeper.server.persistence.FileTxnSnapLog.restore(FileTxnSnapLog.java:158)
          at org.apache.zookeeper.server.ZKDatabase.loadDataBase(ZKDatabase.java:223)
          at org.apache.zookeeper.server.quorum.QuorumPeer.loadDataBase(QuorumPeer.java:450)
          at org.apache.zookeeper.server.quorum.QuorumPeer.start(QuorumPeer.java:440)
          at org.apache.zookeeper.server.quorum.QuorumPeerMain.runFromConfig(QuorumPeerMain.java:153)
          at org.apache.zookeeper.server.quorum.QuorumPeerMain.initializeAndRun(QuorumPeerMain.java:111)
          at org.apache.zookeeper.server.quorum.QuorumPeerMain.main(QuorumPeerMain.java:78)
    2017-12-08 22:46:31,868 [myid:4] - ERROR [main:QuorumPeerMain@89] - Unexpected exception, exiting abnormally
    java.lang.RuntimeException: Unable to run quorum server
          at org.apache.zookeeper.server.quorum.QuorumPeer.loadDataBase(QuorumPeer.java:498)
          at org.apache.zookeeper.server.quorum.QuorumPeer.start(QuorumPeer.java:440)
          at org.apache.zookeeper.server.quorum.QuorumPeerMain.runFromConfig(QuorumPeerMain.java:153)
          at org.apache.zookeeper.server.quorum.QuorumPeerMain.initializeAndRun(QuorumPeerMain.java:111)
          at org.apache.zookeeper.server.quorum.QuorumPeerMain.main(QuorumPeerMain.java:78)
    Caused by: java.io.EOFException
          at java.io.DataInputStream.readInt(DataInputStream.java:392)
          at org.apache.jute.BinaryInputArchive.readInt(BinaryInputArchive.java:63)
          at org.apache.zookeeper.server.persistence.FileHeader.deserialize(FileHeader.java:64)
          at org.apache.zookeeper.server.persistence.FileTxnLog$FileTxnIterator.inStreamCreated(FileTxnLog.java:580)
          at org.apache.zookeeper.server.persistence.FileTxnLog$FileTxnIterator.createInputArchive(FileTxnLog.java:599)
          at org.apache.zookeeper.server.persistence.FileTxnLog$FileTxnIterator.goToNextLog(FileTxnLog.java:565)
          at org.apache.zookeeper.server.persistence.FileTxnLog$FileTxnIterator.next(FileTxnLog.java:647)
          at org.apache.zookeeper.server.persistence.FileTxnSnapLog.restore(FileTxnSnapLog.java:158)
          at org.apache.zookeeper.server.ZKDatabase.loadDataBase(ZKDatabase.java:223)
          at org.apache.zookeeper.server.quorum.QuorumPeer.loadDataBase(QuorumPeer.java:450)
          ... 4 more
  • 分析

     可以看到 2017-12-08 22:02:01,11222017-12-08 22:46:17,702 日志有一个断层,可以看出之前的日志写入被中断了(后续在 /var/log/message 系统日志里面也验证了)。基本可以确定是,单独挂的盘发生了故障,导致了 Snapshot 文件损坏。而自启动脚本尝试重启 Zookeeper 进程的时候,Zookeeper 会依据事务日志里面的最新的 ZXID,一直去尝试读取最后一个已损坏的 Snapshot 文件,导致一直无法恢复

    $ vim /var/log/messages
     kernel: EXT4-fs (vdb): warning: mounting fs with errors, running e2fsck is recommended
  • 解决

    因为 EOFException 导致当前 Zookeeper 进程退出后,集群已经选主出新的 Leader 节点,所以,可以直接删除事务日志和 Snapshot 文件,分别对应于 dataDirdataLogDir 两个目录(理论上只需要保存 myid 文件,其他数据会从 Leader 节点重新拉取)。删除数据完成之后,直接启动 Zookeeper 进程,当前节点即可重新加入 Zookeeper 集群

    
    # 读取配置
    
    2017-12-08 23:20:07,161 [myid:] - INFO  [main:QuorumPeerConfig@103] - Reading configuration from: /home/zookeeper/software/zookeeper/bin/../conf/zoo.cfg
    2017-12-08 23:20:07,165 [myid:] - INFO  [main:QuorumPeerConfig@340] - Defaulting to majority quorums
    2017-12-08 23:20:07,168 [myid:4] - INFO  [main:DatadirCleanupManager@78] - autopurge.snapRetainCount set to 3
    2017-12-08 23:20:07,169 [myid:4] - INFO  [main:DatadirCleanupManager@79] - autopurge.purgeInterval set to 1
    2017-12-08 23:20:07,170 [myid:4] - INFO  [PurgeTask:DatadirCleanupManager$PurgeTask@138] - Purge task started.
    2017-12-08 23:20:07,179 [myid:4] - INFO  [PurgeTask:DatadirCleanupManager$PurgeTask@144] - Purge task completed.
    2017-12-08 23:20:07,181 [myid:4] - INFO  [main:QuorumPeerMain@127] - Starting quorum peer
    2017-12-08 23:20:07,191 [myid:4] - INFO  [main:NIOServerCnxnFactory@94] - binding to port 0.0.0.0/0.0.0.0:2181
    2017-12-08 23:20:07,201 [myid:4] - INFO  [main:QuorumPeer@959] - tickTime set to 2000
    2017-12-08 23:20:07,202 [myid:4] - INFO  [main:QuorumPeer@979] - minSessionTimeout set to -1
    2017-12-08 23:20:07,202 [myid:4] - INFO  [main:QuorumPeer@990] - maxSessionTimeout set to -1
    2017-12-08 23:20:07,202 [myid:4] - INFO  [main:QuorumPeer@1005] - initLimit set to 10
    
    # 开始进行选举
    
    2017-12-08 23:20:07,214 [myid:4] - INFO  [main:QuorumPeer@473] - currentEpoch not found! Creating with a reasonable default of 0. This should only happen when you are upgrading your installation
    2017-12-08 23:20:07,223 [myid:4] - INFO  [main:QuorumPeer@488] - acceptedEpoch not found! Creating with a reasonable default of 0. This should only happen when you are upgrading your installation
    2017-12-08 23:20:07,228 [myid:4] - INFO  [Thread-2:QuorumCnxManager$Listener@505] - My election bind port: /192.168.1.104:3888
    
    # 进入 LOOKING 状态,并创建自己的选票
    
    2017-12-08 23:20:07,238 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:QuorumPeer@714] - LOOKING
    2017-12-08 23:20:07,243 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:FastLeaderElection@815] - New election. My id =  4, proposed zxid=0x0
    2017-12-08 23:20:07,250 [myid:4] - INFO  [WorkerReceiver[myid=4]:FastLeaderElection@597] - Notification: 1 (message format version), 5 (n.leader), 0xe72217dad (n.zxid), 0x6 (n.round), LOOKING (n.state), 1 (n.sid), 0xe (n.peerEpoch) LOOKING (my state)
    2017-12-08 23:20:07,250 [myid:4] - INFO  [WorkerReceiver[myid=4]:FastLeaderElection@597] - Notification: 1 (message format version), 5 (n.leader), 0xe72217dad (n.zxid), 0x6 (n.round), FOLLOWING (n.state), 1 (n.sid), 0xf (n.peerEpoch) LOOKING (my state)
    2017-12-08 23:20:07,252 [myid:4] - INFO  [WorkerReceiver[myid=4]:FastLeaderElection@597] - Notification: 1 (message format version), 4 (n.leader), 0x0 (n.zxid), 0x1 (n.round), LOOKING (n.state), 4 (n.sid), 0x0 (n.peerEpoch) LOOKING (my state)
    2017-12-08 23:20:07,253 [myid:4] - INFO  [WorkerReceiver[myid=4]:FastLeaderElection@597] - Notification: 1 (message format version), 5 (n.leader), 0xe72217dad (n.zxid), 0x6 (n.round), LOOKING (n.state), 3 (n.sid), 0xe (n.peerEpoch) LOOKING (my state)
    2017-12-08 23:20:07,253 [myid:4] - INFO  [WorkerReceiver[myid=4]:FastLeaderElection@597] - Notification: 1 (message format version), 5 (n.leader), 0xe72217dad (n.zxid), 0x6 (n.round), FOLLOWING (n.state), 3 (n.sid), 0xf (n.peerEpoch) LOOKING (my state)
    2017-12-08 23:20:07,253 [myid:4] - INFO  [WorkerSender[myid=4]:QuorumCnxManager@195] - Have smaller server identifier, so dropping the connection: (5, 4)
    2017-12-08 23:20:07,254 [myid:4] - INFO  [WorkerReceiver[myid=4]:FastLeaderElection@597] - Notification: 1 (message format version), 5 (n.leader), 0xe72217dad (n.zxid), 0x6 (n.round), LOOKING (n.state), 4 (n.sid), 0xe (n.peerEpoch) LOOKING (my state)
    2017-12-08 23:20:07,254 [myid:4] - INFO  [WorkerReceiver[myid=4]:FastLeaderElection@597] - Notification: 1 (message format version), 5 (n.leader), 0xe72217dad (n.zxid), 0x6 (n.round), FOLLOWING (n.state), 3 (n.sid), 0xf (n.peerEpoch) LOOKING (my state)
    2017-12-08 23:20:07,254 [myid:4] - INFO  [WorkerSender[myid=4]:QuorumCnxManager@195] - Have smaller server identifier, so dropping the connection: (5, 4)
    2017-12-08 23:20:07,254 [myid:4] - INFO  [WorkerReceiver[myid=4]:FastLeaderElection@597] - Notification: 1 (message format version), 5 (n.leader), 0xe72217dad (n.zxid), 0x6 (n.round), FOLLOWING (n.state), 1 (n.sid), 0xf (n.peerEpoch) LOOKING (my state)
    2017-12-08 23:20:07,255 [myid:4] - INFO  [WorkerReceiver[myid=4]:FastLeaderElection@597] - Notification: 1 (message format version), 5 (n.leader), 0xe72217dad (n.zxid), 0x6 (n.round), LOOKING (n.state), 4 (n.sid), 0xe (n.peerEpoch) LOOKING (my state)
    2017-12-08 23:20:07,272 [myid:4] - INFO  [/192.168.1.104:3888:QuorumCnxManager$Listener@512] - Received connection request /192.168.1.105:18290
    2017-12-08 23:20:07,273 [myid:4] - INFO  [/192.168.1.104:3888:QuorumCnxManager$Listener@512] - Received connection request /192.168.1.105:18291
    2017-12-08 23:20:07,274 [myid:4] - WARN  [RecvWorker:5:QuorumCnxManager$RecvWorker@781] - Connection broken for id 5, my id = 4, error =
    java.io.EOFException
          at java.io.DataInputStream.readInt(DataInputStream.java:392)
          at org.apache.zookeeper.server.quorum.QuorumCnxManager$RecvWorker.run(QuorumCnxManager.java:766)
    2017-12-08 23:20:07,296 [myid:4] - WARN  [RecvWorker:5:QuorumCnxManager$RecvWorker@784] - Interrupting SendWorker
    2017-12-08 23:20:07,295 [myid:4] - WARN  [SendWorker:5:QuorumCnxManager$SendWorker@698] - Interrupted while waiting for message on queue
    java.lang.InterruptedException
          at java.util.concurrent.locks.AbstractQueuedSynchronizer$ConditionObject.reportInterruptAfterWait(AbstractQueuedSynchronizer.java:2017)
          at java.util.concurrent.locks.AbstractQueuedSynchronizer$ConditionObject.awaitNanos(AbstractQueuedSynchronizer.java:2095)
          at java.util.concurrent.ArrayBlockingQueue.poll(ArrayBlockingQueue.java:389)
          at org.apache.zookeeper.server.quorum.QuorumCnxManager.pollSendQueue(QuorumCnxManager.java:850)
          at org.apache.zookeeper.server.quorum.QuorumCnxManager.access$500(QuorumCnxManager.java:61)
          at org.apache.zookeeper.server.quorum.QuorumCnxManager$SendWorker.run(QuorumCnxManager.java:686)
    2017-12-08 23:20:07,280 [myid:4] - INFO  [WorkerReceiver[myid=4]:FastLeaderElection@597] - Notification: 1 (message format version), 5 (n.leader), 0xe72217dad (n.zxid), 0x6 (n.round), LOOKING (n.state), 2 (n.sid), 0xe (n.peerEpoch) LOOKING (my state)
    2017-12-08 23:20:07,297 [myid:4] - WARN  [SendWorker:5:QuorumCnxManager$SendWorker@707] - Send worker leaving thread
    2017-12-08 23:20:07,297 [myid:4] - INFO  [WorkerReceiver[myid=4]:FastLeaderElection@597] - Notification: 1 (message format version), 5 (n.leader), 0xe72217dad (n.zxid), 0x6 (n.round), FOLLOWING (n.state), 2 (n.sid), 0xf (n.peerEpoch) LOOKING (my state)
    2017-12-08 23:20:07,297 [myid:4] - INFO  [WorkerReceiver[myid=4]:FastLeaderElection@597] - Notification: 1 (message format version), 5 (n.leader), 0xe72217dad (n.zxid), 0x6 (n.round), LOOKING (n.state), 5 (n.sid), 0xe (n.peerEpoch) LOOKING (my state)
    2017-12-08 23:20:07,297 [myid:4] - INFO  [WorkerReceiver[myid=4]:FastLeaderElection@597] - Notification: 1 (message format version), 5 (n.leader), 0xe72217dad (n.zxid), 0x6 (n.round), LEADING (n.state), 5 (n.sid), 0xf (n.peerEpoch) LOOKING (my state)
    
    # 经过 84ms,进入 FOLLOWING 状态,完成选举过程
    
    2017-12-08 23:20:07,298 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:QuorumPeer@784] - FOLLOWING
    2017-12-08 23:20:07,303 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:Learner@86] - TCP NoDelay set to: true
    2017-12-08 23:20:07,317 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:Environment@100] - Server environment:zookeeper.version=3.4.6--1, built on 08/30/2017 09:55 GMT
    2017-12-08 23:20:07,317 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:Environment@100] - Server environment:host.name=yuzhouwan-storm-4
    2017-12-08 23:20:07,317 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:Environment@100] - Server environment:java.version=1.7.0_60-ea
    2017-12-08 23:20:07,317 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:Environment@100] - Server environment:java.vendor=Oracle Corporation
    2017-12-08 23:20:07,317 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:Environment@100] - Server environment:java.home=/home/zookeeper/software/jdk1.7.0_60/jre
    2017-12-08 23:20:07,318 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:Environment@100] - Server environment:java.class.path=/home/zookeeper/software/zookeeper/bin/../build/classes:/home/zookeeper/software/zookeeper/bin/../build/lib/*.jar:/home/zookeeper/software/zookeeper/bin/../lib/slf4j-log4j12-1.6.1.jar:/home/zookeeper/software/zookeeper/bin/../lib/slf4j-api-1.6.1.jar:/home/zookeeper/software/zookeeper/bin/../lib/netty-3.7.0.Final.jar:/home/zookeeper/software/zookeeper/bin/../lib/log4j-1.2.16.jar:/home/zookeeper/software/zookeeper/bin/../lib/jline-0.9.94.jar:/home/zookeeper/software/zookeeper/bin/../zookeeper-3.4.6.4.jar:/home/zookeeper/software/zookeeper/bin/../src/java/lib/*.jar:/home/zookeeper/software/zookeeper/bin/../conf:/home/zookeeper/software/java/lib/dt.jar:/home/zookeeper/software/java/lib/tools.jar:.
    2017-12-08 23:20:07,318 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:Environment@100] - Server environment:java.library.path=/usr/java/packages/lib/amd64:/usr/lib64:/lib64:/lib:/usr/lib
    2017-12-08 23:20:07,318 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:Environment@100] - Server environment:java.io.tmpdir=/tmp
    2017-12-08 23:20:07,318 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:Environment@100] - Server environment:java.compiler=
    2017-12-08 23:20:07,318 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:Environment@100] - Server environment:os.name=Linux
    2017-12-08 23:20:07,318 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:Environment@100] - Server environment:os.arch=amd64
    2017-12-08 23:20:07,318 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:Environment@100] - Server environment:os.version=2.6.32-279.19.1.el6_sn.11.x86_64
    2017-12-08 23:20:07,318 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:Environment@100] - Server environment:user.name=zookeeper
    2017-12-08 23:20:07,318 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:Environment@100] - Server environment:user.home=/home/zookeeper
    2017-12-08 23:20:07,318 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:Environment@100] - Server environment:user.dir=/data/zookeeper
    2017-12-08 23:20:07,320 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:ZooKeeperServer@162] - Created server with tickTime 2000 minSessionTimeout 4000 maxSessionTimeout 40000 datadir /data/zookeeper/dataLogDir/version-2 snapdir /data/zookeeper/datadir/version-2
    2017-12-08 23:20:07,320 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:Follower@63] - FOLLOWING - LEADER ELECTION TOOK - 77
    
    # 从 Leader 节点获取最新的 Snapshot 文件
    
    2017-12-08 23:20:07,335 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:Learner@326] - Getting a snapshot from leader
    2017-12-08 23:20:07,545 [myid:4] - WARN  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:Learner@374] - Got zxid 0xf001761dc expected 0x1
    
    # 创建 Snapshot 文件(实际内容是 zxid - 1,而不是直接用最新的 zxid)
    
    2017-12-08 23:20:07,545 [myid:4] - INFO  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:FileTxnSnapLog@240] - Snapshotting: 0xf001761db to /data/zookeeper/datadir/version-2/snapshot.f001761db
    
    # 创建事务日志文件
    
    2017-12-08 23:20:07,655 [myid:4] - INFO  [SyncThread:4:FileTxnLog@203] - Creating new log file: log.f001761dc
    2017-12-08 23:20:07,657 [myid:4] - WARN  [QuorumPeer[myid=4]/0:0:0:0:0:0:0:0:2181:Follower@118] - Got zxid 0xf00176261 expected 0x1
    
    # 至此,完成最终恢复,历时 496ms
    

Hadoop

其他技术比对

思维导图


(利用 XMind™ 绘制而成)

分布式框架

Chubby

 Google Chubby 是一种分布式锁服务,解决了分布式协作、元数据存储和 Leader 选举等一系列与分布式锁服务相关的问题,有着以下的优势:

  • 提供了一个完整的、独立的分布式锁服务
  • 提供粗粒度的锁服务
  • 在提供锁服务的同时提供对小文件的读写功能
  • 高可用
  • 提供事件通知机制

     和 Zookeeper 的区别主要有三点:

  • 一致性算法不同

    Zookeeper 用的是 ZAB 原子广播协议;Chubby 是带租约的 Paxos

  • API 设计不同

    Zookeeper 用 ZNode 节点来实现锁;Chubby 提供了直接的加锁 API

  • 集群设计不同

    Zookeeper 每个机器都可以读,提供 sync 方法同步刷新,保证了吞吐量;Chubby 读写都在 Master 单节点上

HyperTable

 Hypertable 和 HBase 是最知名的两款基于 BigTable 为蓝本设计的数据库,他们的不同之处在于 Hypertable 基于 Boost C++ 实现,而 HBase 则基于 Java。虽然前者架构足够精细、代码足够高质,但是流行度远不及 HBase

一致性算法

Raft

 相比 Paxos,Raft 算法则更加易于理解和实现(目前 Redis 的集群设计用的是 Raft 算法)







(对 Raft.io™ 的截图)

分布式协同

Fourinone

 Fourinone 是阿里自主研发的一个分布式并行计算框架,它集成了 Hadoop、ZooKeeper、MQ、分布式缓存 四大主要的分布式计算功能。同时,还提供完整的分布式缓存支持,包括中小型缓存以及大型集群缓存,不过已经很长时间没有维护了

分布式服务注册与发现

Consul

 Consul 是强一致性的数据存储,使用 Gossip 形成动态集群。它提供分级键/值存储方式,不仅可以存储数据,而且可以用于注册各种事件,从发送数据改变通知到运行健康检查和自定义命令
 相比于 Zookeeper 只能提供 KV 存储,Consul 内嵌了 服务发现系统,并且原生支持多数据中心部署。同时,还可以执行健康检查,并提供一个可视化的 Dashboard 用于管理

Etcd

 Etcd 是一个采用 HTTP 协议的键/值对存储系统,它是一个分布式和功能层次配置系统,可用于构建服务发现系统。其很容易部署、安装和使用,提供了可靠的数据持久化特性

Registrator

 Registrator 通过检查容器在线或者停止运行状态自动注册卸载注册服务,它目前支持 etcd、Consul 和 SkyDNS2
 Registrator 与 etcd 是一个简单但是功能强大的组合,可以运行很多先进的技术。每当打开一个容器,所有数据将被存储在 etcd 并同步复制到集群中的所有节点上

Confd

 Confd 是一个轻量级的配置管理工具,常见的用法是通过使用存储在 etcd、consul 和 其他一些数据登记处的数据保持配置文件的最新状态,它也可以用来在配置文件改变时重新加载应用程序。换句话说,我们可以用存储在 etcd(或者其他注册中心)的信息来重新配置所有服务

实用工具

日志可视化工具

$ cd ~/software/zookeeper
$ java -cp zookeeper-3.4.6.jar:lib/log4j-1.2.16.jar:lib/slf4j-log4j12-1.6.1.jar:lib/slf4j-api-1.6.1.jar org.apache.zookeeper.server.LogFormatter ~/data/version-2/log.xxx

  ZooKeeper Transactional Log File with dbid 0 txnlog format version 2
  8/16/17 1:28:36 AM CST session 0x25d0d0e60d373ed cxid 0xcdd3 zxid 0xf0345fbfb setData '/hbase/replication/rs/slave08-yuzhouwan%2C60020%2C1502718266335/1/slave08-yuzhouwan%252C60020%252C1502718266335.1502817956398,#ffffffff0001a726567696f6e7365727665723a36303032306cffffffe8ffffffa1ffffffd0ffffff9824ffffffb616504255468ffffff8effffff92fffffff61d,34
  8/16/17 1:28:36 AM CST session 0x35d0d0e72d4c5af cxid 0x0 zxid 0xf0345fbfd createSession 40000
  8/16/17 1:28:37 AM CST session 0x15d0d0e5fc25bb2 cxid 0x0 zxid 0xf0345fc08 createSession 40000
  8/16/17 1:28:37 AM CST session 0x35d0d0e72d4c5b2 cxid 0x4 zxid 0xf0345fc09 closeSession null
  8/16/17 1:28:37 AM CST session 0x15d0d0e5fc25bb2 cxid 0x3 zxid 0xf0345fc0a closeSession null
  8/16/17 1:28:37 AM CST session 0x25d0d0e60a7e937 cxid 0x26eeeb zxid 0xf0345fc0b setData '/hbase/replication/rs/slave06-yuzhouwan%2C60020%2C1499390463838/1/slave06-yuzhouwan%252C60020%252C1499390463838.1502817657055,#ffffffff0001a726567696f6e7365727665723a3630303230ffffff882fffffff8f7ffffff8b6ffffff89ffffffa7504255468ffffffeaffffff8effffffc52e,183

Snapshot 可视化工具

$ cd ~/software/zookeeper
$ java -cp zookeeper-3.4.6.jar:lib/log4j-1.2.16.jar:lib/slf4j-log4j12-1.6.1.jar:lib/slf4j-api-1.6.1.jar org.apache.zookeeper.server.SnapshotFormatter ~/data/version-2/snapshot.xxx

  ZNode Details (count=4):
  ----
  /
    cZxid = 0x00000000000000
    ctime = Thu Jan 01 08:00:00 CST 1970
    mZxid = 0x00000000000000
    mtime = Thu Jan 01 08:00:00 CST 1970
    pZxid = 0x00000000000000
    cversion = 0
    dataVersion = 0
    aclVersion = 0
    ephemeralOwner = 0x00000000000000
    dataLength = 0
  ----
  /zookeeper
    cZxid = 0x00000000000000
    ctime = Thu Jan 01 08:00:00 CST 1970
    mZxid = 0x00000000000000
    mtime = Thu Jan 01 08:00:00 CST 1970
    pZxid = 0x00000000000000
    cversion = 0
    dataVersion = 0
    aclVersion = 0
    ephemeralOwner = 0x00000000000000
    dataLength = 0
  ----
  /zookeeper/quota
    cZxid = 0x00000000000000
    ctime = Thu Jan 01 08:00:00 CST 1970
    mZxid = 0x00000000000000
    mtime = Thu Jan 01 08:00:00 CST 1970
    pZxid = 0x00000000000000
    cversion = 0
    dataVersion = 0
    aclVersion = 0
    ephemeralOwner = 0x00000000000000
    dataLength = 0
  ----
  Session Details (sid, timeout, ephemeralCount):

Hue Browser 集群页面 监控工具

Rest 服务

编译
$ tar zxvf zookeeper-3.4.10.tar.gz -C ~/software/
$ cd ~/software/zookeeper-3.4.10/
$ ant clean
$ ant
拷贝 Jar 包
$ cp build/contrib/rest/zookeeper-dev-rest.jar src/contrib/rest/lib/
$ cp build/contrib/rest/lib/*.jar src/contrib/rest/lib/
$ wget https://repository.cloudera.com/content/repositories/releases/org/apache/zookeeper/zookeeper/3.4.5-cdh5.11.1/zookeeper-3.4.5-cdh5.11.1.jar
$ cp zookeeper-3.4.5-cdh5.2.0.jar src/contrib/rest/lib/
$ cp src/java/lib/*.jar src/contrib/rest/lib/
启动 Rest Service
$ cd /home/zookeeper/software/zookeeper1/src/contrib/rest
$ ./rest.sh start
  Starting ZooKeeper REST Gateway ... 
  STARTED
# 关闭
$ ./rest.sh stop
# 查看日志
$ tail -f zkrest.log

安装 Hue

# 增加 Zookeeper 用户
# 安装 jdk7 / python2.7.12 / virtualenv
$ su - zookeeper
$ mkdir software && cd software
$ virtualenv -p /usr/local/bin/python --system-site-packages hue
$ cd hue && source bin/activate
# 检查 virtualEnv 里的 python 版本和路径,是否正确
(hue) [zookeeper@zoo hue]$ python -V
  Python 2.7.12
(hue) [zookeeper@edeppreapp01 software]$ which python
~/software/hue/bin/python
$ cd /home/zookeeper/install
$ wget https://codeload.github.com/cloudera/hue/tar.gz/cdh5.8.5-release
$ wget https://issues.apache.org/jira/secure/attachment/12452258/huebrowser.tar.gz
$ ll
  -rw-r--r-- 1 root root 50421006 Jun 22 16:57 hue-1.0.tgz
  -rw-r--r-- 1 root root    23412 Jun 22 16:57 huebrowser.tar.gz
$ mv cdh5.8.5-release cdh5.8.5-release.tar.gz
$ tar zxvf cdh5.8.5-release.tar.gz -C ~/software/
$ tar zxvf hue-1.0.tgz -C ~/software/ && tar zxvf huebrowser.tar.gz -C ~/software/

# 安装 hue
$ cd ~/software/hue-1.0
$ make apps

# 可能需要安装一些第三方包,无需则跳过
$ pip install simplejson

$ mkdir apps/zkui
$ python tools/app_reg/app_reg.py --install apps/zkui
$ python tools/app_reg/app_reg.py --list 2>&1 | grep zkui
  zkui           0.1     /Users/philip/src/hue/apps/zkui

Tips: Hue Browser 因为常年未维护更新(只兼容到 Zookeeper v3.4.5 版本),导致安装时容易出现很多问题。另外,Rest Service 必须所有的节点都开启才行,一旦某一台故障,则整个 Hue 不可用。所以,最好还是自己实现一套监控系统

移除 Watch 工具

Docker 开发环境部署工具

生成配置工具

冒烟测试工具

Curator 框架

社区跟进

PR & Issues

  • Pull Request

  • Issues

     详见,《开源社区》

Zookeeper 社区的一些 “规则”

 同时也是共享其他开源项目时,需要注意和养成的好习惯,只是 Zookeeper 中控制更加严格

保持 Diff 信息最简

 PR 中不应该做无关的 Code Format(import / 代码缩进 等)

保持 PR 的相关性

 不做无关的 代码优化,尤其是对其他不相关的类(可以另起 PR 进行优化)

保持 代码风格一致

 关闭 IDE 自动优化 import 合并为通配符 * 的功能(如,import java.io.* 等)

 类似的,还有 Druid-io 里的参数列表,需要分行写;Apache Superset 之类的 Python 项目,需要注意 PEP 规范;Apache Eagle 需要 squash PR 中的 commits 等等。更多相关内容,参见我的另一篇文章:《如何成为一名优质的 Contributor》

规避已知 issues

 在 jira 中,根据自己的版本(affectedVersion),找到 Major 级别的 Bug,按照各个组件,对组件(component)进行筛选,并合并 patch 到自己的本地代码库里,从而规避一些已知的 issues,提高集群稳定性

project = ZOOKEEPER AND issuetype = Bug AND resolution = Fixed AND affectedVersion = 3.4.6 AND priority = Major AND component = server ORDER BY priority DESC, updated DESC

以 v3.4.6 为例

server
  • ZOOKEEPER-2026: Startup order in ServerCnxnFactory-ies is wrong
  • ZOOKEEPER-2044: CancelledKeyException in zookeeper branch-3.4
  • ZOOKEEPER-2052: Unable to delete a node when the node has no children
  • ZOOKEEPER-2060: Trace bug in NettyServerCnxnFactory
  • ZOOKEEPER-2186: QuorumCnxManager#receiveConnection may crash with random input
quorum
  • ZOOKEEPER-1774: QuorumPeerMainTest fails consistently with “complains about host” assertion failure
  • ZOOKEEPER-2029: Leader.LearnerCnxAcceptor should handle exceptions in run()
  • ZOOKEEPER-2033: zookeeper follower fails to start after a restart immediately following a new epoch
  • ZOOKEEPER-2195: fsync.warningthresholdms in zoo.cfg not working
java client
  • ZOOKEEPER-1853: zkCli.sh cannot issue a CREATE command containing spaces in the data
  • ZOOKEEPER-1897: ZK Shell/Cli not processing commands
  • ZOOKEEPER-2375: Prevent multiple initialization of login object in each ZooKeeperSaslClient instance
  • ZOOKEEPER-2893: very poor choice of logging if client fails to connect to server
other
  • ZOOKEEPER-1913: Invalid manifest files due to bogus revision property value
  • ZOOKEEPER-1991: zkServer.sh returns with a zero exit status when a ZooKeeper process is already running
  • ZOOKEEPER-2039: Jute compareBytes incorrect comparison index
improvement
  • ZOOKEEPER-1506: Re-try DNS hostname -> IP resolution if node connection fails
  • ZOOKEEPER-2270: Allow MBeanRegistry to be overridden for better unit tests
  • ZOOKEEPER-1948: Enable JMX remote monitoring
  • ZOOKEEPER-2205: Log type of unexpected quorum packet in learner handler loop
  • ZOOKEEPER-2194: Let DataNode.getChildren() return an unmodifiable view of its children set

参考资料

Doc

  • Zookeeper Admin
  • Release Notes v3.4.11

Blog

Peration and maintenance

  • 大话运维:Zookeeper
  • Zookeeper 运维
  • Zookeeper 深入理解(三)Zookeeper 管理之运维
  • Zookeeper 部署与动态扩容

Source Code

  • Paxos 算法与 Zookeeper 分析
  • Zab 协议
  • Paxos
  • Zookeeper C API 介绍

Zookeeper

  • Kafka data structures in Zookeeper
  • Zookeeper 学习笔记之(六)- Zookeeper 常用配置
  • Zookeeper 详解(二):Server 端
  • Zookeeper 配置 Kerberos 认证

Issues

  • Follower.followLeader EOFException

Book

  • ZooKeeper
  • Paxos 到 Zookeeper:分布式一致性原理与实践
  • 人工智能的未来

Paper

  • Paxos Made Simple
  • HIERARCHICAL TEMPORAL MEMORY including HTM Cortical Learning Algorithms

CPU

  • Intel® 64 and IA-32 architectures software developer’s manual combined volumes: 1, 2A, 2B, 2C, 2D, 3A, 3B, 3C, 3D, and 4

更多资源,欢迎加入,一起交流学习

Technical Discussion Group:(人工智能 1020982(高级)& 1217710(进阶)| BigData 1670647)


Post author:Benedict Jin
Post link: https://yuzhouwan.com/posts/31915/
Copyright Notice: All articles in this blog are licensed under CC BY-NC-SA 4.0 unless stating additionally.

你可能感兴趣的:(Apache,Zookeeper)