zk集群开启sasl认证

上一篇文章写了关于zk单机开启sasl认证的一些内容:zk单机开启sasl认证
建议看本篇文章之前需回顾一下上一篇文章的内容。
单个zk开启sasl认证需要配置三部分:

  • conf/zoo.cfg
  • conf/java.env
  • conf/sasl.conf

zk集群的sasl认证,集群中的每一个zk也配置如上三个文件,就可以开启集群的sasl认证了。认证方式使用digest-md5。

本次测试是在一台机器上起3个zk,模拟zk集群的部署,使用版本为3.4.10。
集群各节点端口如下:
zk-1:2181
zk-2:2182
zk-3:2183

1.集群部署

1.1配置文件修改

官网获取zookeeper-3.4.10.tar.gz,下载页面:zookeeper-3.4.10

tar -zxvf zookeeper-3.4.10.tar.gz
cd zookeeper-3.4.10/conf
cp zoo_sample.cfg  zoo.cfg

下面修改zoo.cfg,这是zookeeper的配置文件
单机部署的话一般只需要修改dataDir,dataLogDir,clientPort三个配置项
集群部署需要添加集群信息配置,sasl认证在上一篇文章介绍了,需要加2行配置
修改之后的配置如下:

# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial 
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between 
# sending a request and getting an acknowledgement
syncLimit=5
# the directory where the snapshot is stored.
# do not use /tmp for storage, /tmp here is just 
# example sakes.

#这里配置zk的数据存储路径,会在bin目录下生成data文件夹
dataDir=./data

#这里配置日志文件目录,会在安装目录下生成logs文件夹
dataLogDir=../logs

# the port at which the clients will connect
#默认端口2181,可根据需要修改
clientPort=2181
# the maximum number of client connections.
# increase this if you need to handle more clients
#maxClientCnxns=60
#
# Be sure to read the maintenance section of the 
# administrator guide before turning on autopurge.
#
# http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
#
# The number of snapshots to retain in dataDir
#autopurge.snapRetainCount=3
# Purge task interval in hours
# Set to "0" to disable auto purge feature
#autopurge.purgeInterval=1

#zk集群信息配置
#server.A=B:C:D中的A是一个数字,表示这个是第几号服务器
#B是这个服务器的IP地址
#C第一个端口用来集群成员的信息交换,表示这个服务器与集群中的leader服务器交换信息的端口
#D是在leader挂掉时专门用来进行选举leader所用的端口
server.1= 172.16.17.19:2886:3886
server.2= 172.16.17.19:2887:3887
server.3= 172.16.17.19:2888:3888

#zk auth
#server端启用sasl,添加如下配置
authProvider.1=org.apache.zookeeper.server.auth.SASLAuthenticationProvider
requireClientAuthScheme=sasl

1.2.创建ServerId标识

zk集群间通信,需要配置每个zk节点的标识,具体需要在dataDir目录下(dataDir在上一步的zoo.cfg中已经进行了配置)新建一个myid文件,然后指定zk的id,如果当前机器id想指定为1,将1写入myid文件中,myid的内容需要与zoo.cfg文件中的server配置保持一致。一个节点指定一个id。
本次测试最终是3个节点组成一个集群,zk-1指定id=1,zk-2指定id=2,zk-3指定id=3

1.3.配置java.env和sasl.conf

java.env

SERVER_JVMFLAGS="-Djava.security.auth.login.config=/zk/zk-1/conf/sasl.conf"

sasl.conf

Server {
       org.apache.zookeeper.server.auth.DigestLoginModule required
       user_super="super";
     
};

1.4.zk节点复制,修改其他节点的配置

将zookeeper-3.4.10这个文件夹重命名为zk-1,复制zk-1,复制2次,修改复制后的文件夹名称为zk-2,zk-3。

1.4.1.修改myid

进入dataDir所在的目录,修改myid的值,zk-2修改myid的值为2,zk-3修改myid的值为3

1.4.2.修改zoo.cfg

修改clientPort的值,zk-2改为2182,zk-3改为2183

1.4.3.修改java.env

zk-2改为:

SERVER_JVMFLAGS="-Djava.security.auth.login.config=/zk/zk-2/conf/sasl.conf"

zk-3改为:

SERVER_JVMFLAGS="-Djava.security.auth.login.config=/zk/zk-3/conf/sasl.conf"

2.注意事项

本次测试是在linux上进行的,Windows环境下测试需要看一下上一篇的第三条注意事项

2.1.zoo.cfg

2.1.1. 3个节点zoo.cfg相同部分

数据目录,server集群信息,zk auth配置3个节点的配置信息都是相同的

dataDir=./data
dataLogDir=../logs

server.1= 172.16.17.19:2886:3886
server.2= 172.16.17.19:2887:3887
server.3= 172.16.17.19:2888:3888

authProvider.1=org.apache.zookeeper.server.auth.SASLAuthenticationProvider
requireClientAuthScheme=sasl

2.1.2. 3个节点zoo.cfg不同部分

3个节点的clientPort配置都是不同的

clientPort=

2.2. java.env

3个节点的java.env配置路径都需要修改为自己的sasl.conf的路径
3个节点的sasl.conf文件的配置都是相同的

2.3. myid

3个节点的myid配置都不相同,配置每个节点的myid的时候,需要和zoo.cfg中指定的serverId保持一致

你可能感兴趣的:(zk集群开启sasl认证)