Kafka集群部署

一 、实验目标

(1)了解Kafka分布式发布订阅消息系统。

(2)搭建Kafka分布式发布订阅消息系统。

(3)使用Kafka分布式发布订阅消息系统。

二 、实验分析

2.1规划节点

IP

主机名

节点

192.168.32.140

Zookeeper1

集群节点

192.168.32.141

Zookeeper2

集群节点

192.168.32.142

Zookeeper3

集群节点

2.2基础准备

使用ZooKeeper集群搭建的3个节点来构建Kafka集群,因为Kafka服务依赖于ZooKeeper服务,所以不再多创建云主机来进行试验。软件包使用提供的kafka_2.11-1.1.1.tgz软件包。

三 、实验实施

3.1搭建Kafka集群

(1)解压Kafka软件包

将提供的kafka_2.11-1.1.1.tgz软件包,上传至3个节点的/root目录下,并执行解压操作,3个节点执行的解压命令如下:

# tar -zxvf kafka_2.11-1.1.1.tgz

(2)修改3个节点配置文件

在zookeeper1节点,进入kafka_2.11-1.1.1/config目录下,编辑server.properties文件。

在配置文件中找到以下两行并注释掉(在文本前加#)如下所示:

#broker.id=0

#zookeeper.connect=localhost:2181

然后在配置文件的底部添加如下3个配置。

zookeeper1节点:

broker.id=1

zookeeper.connect=192.168.32.140:2181,192.168.32.141:2181,192.168.32.142:2181

listeners = PLAINTEXT://192.168.32.140:9092

命令解析:

         broker.id:每台机器不能一样。

        zookeeper.connect:因为有3台ZooKeeper,所以在这里zookeeper.connect设置为3台。

        listeners:在配置集群的时候,必须设置,不然以后的操作会报找不到leader的错误。

另外两台服务器,zookeeper.connect的配置跟这里的一样,但是broker.id和listeners不能一样。

zookeeper2节点:

broker.id=2

zookeeper.connect=192.168.32.140:2181,192.168.32.141:2181,192.168.32.142:2181

listeners = PLAINTEXT://192.168.32.141:9092

zookeeper3节点:

broker.id=3

zookeeper.connect=192.168.32.140:2181,192.168.32.141:2181,192.168.32.142:2181

listeners = PLAINTEXT://192.168.32.142:9092

(3)启动服务

在zookeeper1节点,进入kafka_2.11-1.1.1/bin目录下,启动服务命令如下。

zookeeper1节点:

[root@zookeeper1 bin]# ./kafka-server-start.sh -daemon ../config/server.properties

[root@zookeeper1 bin]# jps

11416 Kafka

11464 Jps

10479 QuorumPeerMain

zookeeper2节点:

[root@zookeeper2 bin]# ./kafka-server-start.sh -daemon ../config/server.properties

[root@zookeeper2 bin]# jps

11121 Kafka

11188 Jps

10175 QuorumPeerMain

zookeeper3节点:

[root@zookeeper3 bin]# ./kafka-server-start.sh -daemon ../config/server.properties

[root@zookeeper3 bin]# jps

11080 Kafka

10188 QuorumPeerMain

11149 Jps

(4)测试服务

在zookeeper1节点,进入kafka_2.11-1.1.1/bin目录下,创建topic命令如下。

zookeeper1节点:

[root@zookeeper1 bin]# ./kafka-topics.sh --create --zookeeper 172.16.51.23:2181 --replication-factor 1 --partitions 1 --topic test

Created topic "test".

如果成功的话,会输出“Created topic "test".”。

查看topic,虽然topic是在192.168.32.140上创建的,但是在其他机器上也能看到。例如在任意启动的机器kafka_2.11-1.1.1/bin的目录中执行命令如下:

zookeeper2节点:

[root@zookeeper2 bin]# ./kafka-topics.sh --list --zookeeper 172.16.51.32:2181

test

zookeeper3节点:

[root@zookeeper3 bin]# ./kafka-topics.sh --list --zookeeper 172.16.51.41:2181

test

测试成功。

你可能感兴趣的:(Gpmall,Linux运维,kafka,linux,分布式,运维)