上一篇文章写了关于zk单机开启sasl认证的一些内容:zk单机开启sasl认证
建议看本篇文章之前需回顾一下上一篇文章的内容。
单个zk开启sasl认证需要配置三部分:
- conf/zoo.cfg
- conf/java.env
- conf/sasl.conf
zk集群的sasl认证,集群中的每一个zk也配置如上三个文件,就可以开启集群的sasl认证了。认证方式使用digest-md5。
本次测试是在一台机器上起3个zk,模拟zk集群的部署,使用版本为3.4.10。
集群各节点端口如下:
zk-1:2181
zk-2:2182
zk-3:2183
1.集群部署
1.1配置文件修改
官网获取zookeeper-3.4.10.tar.gz,下载页面:zookeeper-3.4.10
tar -zxvf zookeeper-3.4.10.tar.gz
cd zookeeper-3.4.10/conf
cp zoo_sample.cfg zoo.cfg
下面修改zoo.cfg,这是zookeeper的配置文件
单机部署的话一般只需要修改dataDir,dataLogDir,clientPort三个配置项
集群部署需要添加集群信息配置,sasl认证在上一篇文章介绍了,需要加2行配置
修改之后的配置如下:
# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between
# sending a request and getting an acknowledgement
syncLimit=5
# the directory where the snapshot is stored.
# do not use /tmp for storage, /tmp here is just
# example sakes.
#这里配置zk的数据存储路径,会在bin目录下生成data文件夹
dataDir=./data
#这里配置日志文件目录,会在安装目录下生成logs文件夹
dataLogDir=../logs
# the port at which the clients will connect
#默认端口2181,可根据需要修改
clientPort=2181
# the maximum number of client connections.
# increase this if you need to handle more clients
#maxClientCnxns=60
#
# Be sure to read the maintenance section of the
# administrator guide before turning on autopurge.
#
# http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
#
# The number of snapshots to retain in dataDir
#autopurge.snapRetainCount=3
# Purge task interval in hours
# Set to "0" to disable auto purge feature
#autopurge.purgeInterval=1
#zk集群信息配置
#server.A=B:C:D中的A是一个数字,表示这个是第几号服务器
#B是这个服务器的IP地址
#C第一个端口用来集群成员的信息交换,表示这个服务器与集群中的leader服务器交换信息的端口
#D是在leader挂掉时专门用来进行选举leader所用的端口
server.1= 172.16.17.19:2886:3886
server.2= 172.16.17.19:2887:3887
server.3= 172.16.17.19:2888:3888
#zk auth
#server端启用sasl,添加如下配置
authProvider.1=org.apache.zookeeper.server.auth.SASLAuthenticationProvider
requireClientAuthScheme=sasl
1.2.创建ServerId标识
zk集群间通信,需要配置每个zk节点的标识,具体需要在dataDir目录下(dataDir在上一步的zoo.cfg中已经进行了配置)新建一个myid文件,然后指定zk的id,如果当前机器id想指定为1,将1写入myid文件中,myid的内容需要与zoo.cfg文件中的server配置保持一致。一个节点指定一个id。
本次测试最终是3个节点组成一个集群,zk-1指定id=1,zk-2指定id=2,zk-3指定id=3
1.3.配置java.env和sasl.conf
java.env
SERVER_JVMFLAGS="-Djava.security.auth.login.config=/zk/zk-1/conf/sasl.conf"
sasl.conf
Server {
org.apache.zookeeper.server.auth.DigestLoginModule required
user_super="super";
};
1.4.zk节点复制,修改其他节点的配置
将zookeeper-3.4.10这个文件夹重命名为zk-1,复制zk-1,复制2次,修改复制后的文件夹名称为zk-2,zk-3。
1.4.1.修改myid
进入dataDir所在的目录,修改myid的值,zk-2修改myid的值为2,zk-3修改myid的值为3
1.4.2.修改zoo.cfg
修改clientPort的值,zk-2改为2182,zk-3改为2183
1.4.3.修改java.env
zk-2改为:
SERVER_JVMFLAGS="-Djava.security.auth.login.config=/zk/zk-2/conf/sasl.conf"
zk-3改为:
SERVER_JVMFLAGS="-Djava.security.auth.login.config=/zk/zk-3/conf/sasl.conf"
2.注意事项
本次测试是在linux上进行的,Windows环境下测试需要看一下上一篇的第三条注意事项
2.1.zoo.cfg
2.1.1. 3个节点zoo.cfg相同部分
数据目录,server集群信息,zk auth配置3个节点的配置信息都是相同的
dataDir=./data
dataLogDir=../logs
server.1= 172.16.17.19:2886:3886
server.2= 172.16.17.19:2887:3887
server.3= 172.16.17.19:2888:3888
authProvider.1=org.apache.zookeeper.server.auth.SASLAuthenticationProvider
requireClientAuthScheme=sasl
2.1.2. 3个节点zoo.cfg不同部分
3个节点的clientPort配置都是不同的
clientPort=
2.2. java.env
3个节点的java.env配置路径都需要修改为自己的sasl.conf的路径
3个节点的sasl.conf文件的配置都是相同的
2.3. myid
3个节点的myid配置都不相同,配置每个节点的myid的时候,需要和zoo.cfg中指定的serverId保持一致