1 、默认已经安装好JDK
2、提前下载一个准备好的安装包:kafka_2.13-2.5.0.tgz
3、 手动下载 下载地址:http://kafka.apache.org/downloads
[root@iZuf63aacjtzo5bxq68kfpZ kafka]# tar -zxvf kafka_2.13-2.5.0.tgz
3.进入解压目录
本人已经将解压文件改名为kafka02;切换到config下:
[root@iZuf63aacjtzo5bxq68kfpZ kafka02]# cd config/
4.准备3个zookeeper.properties
5、分别配置server.properties和zookeeper.properties
// An highlighted block
server01.properties修改 内容如下:可直接复制粘贴。
broker.id=0
port=9092 #端口号
host.name=localhost #单机可直接用localhost
log.dirs=/home/kafka/kafka02/log/kafkalog/01 #日志存放路径可修改可不修改
zookeeper.connect=localhost:2181 #zookeeper地址和端口,单机配置部署,localhost:2181
// An highlighted block
server02.properties修改 内容如下:可直接复制粘贴。
broker.id=1
port=9093 #端口号
host.name=localhost #单机可直接用localhost
log.dirs=/home/kafka/kafka02/log/kafkalog/02 #日志存放路径可修改可不修改
zookeeper.connect=localhost:2181 #zookeeper地址和端口,单机配置部署,localhost:2181
// An highlighted block
server03.properties修改 内容如下:可直接复制粘贴。
broker.id=2
port=9094 #端口号
host.name=localhost #单机可直接用localhost
log.dirs=/home/kafka/kafka02/log/kafkalog/03 #日志存放路径可修改可不修改
zookeeper.connect=localhost:2181 #zookeeper地址和端口,单机配置部署,localhost:2181
// zookeeper01.properties修改 内容如下:可直接复制粘贴。
dataDir=/home/kafka/kafka02/zookeeper/zk1
dataLogDir=/home/kafka/kafka02/log/zookeeper/zk1
clientPort=2181
maxClientCnxns=100
tickTime=2000
initLimit=10
syncLimit=5
admin.enableServer=false
server.1=localhost:2888:3888
// zookeeper02.properties修改 内容如下:可直接复制粘贴。
dataDir=/home/kafka/kafka02/zookeeper/zk2
dataLogDir=/home/kafka/kafka02/log/zookeeper/zk2
clientPort=2183
maxClientCnxns=100
tickTime=2000
initLimit=10
syncLimit=5
admin.enableServer=false
server.1=localhost:2889:3889
// zookeeper03.properties修改 内容如下:可直接复制粘贴。
dataDir=/home/kafka/kafka02/zookeeper/zk3
dataLogDir=/home/kafka/kafka02/log/zookeeper/zk3
clientPort=2183
maxClientCnxns=100
tickTime=2000
initLimit=10
syncLimit=5
admin.enableServer=false
server.1=localhost:2890:3890
6.由于我修改了日志存放地址 需要创建三个文件夹存放日志和数据
//myid文件内容设置数字1
echo 1 > myid
//启动zookeeper01
[root@iZuf63aacjtzo5bxq68kfpZ kafka02]# bin/zookeeper-server-start.sh ./config/zookeeper01.properties &
//启动zookeeper02
[root@iZuf63aacjtzo5bxq68kfpZ kafka02]# bin/zookeeper-server-start.sh ./config/zookeeper02.properties &
//启动zookeeper03
[root@iZuf63aacjtzo5bxq68kfpZ kafka02]# bin/zookeeper-server-start.sh ./config/zookeeper03.properties &
//启动kafka01
[root@iZuf63aacjtzo5bxq68kfpZ kafka02]# bin/kafka-server-start.sh config/server02.properties &
//启动kafka01
[root@iZuf63aacjtzo5bxq68kfpZ kafka02]# bin/kafka-server-start.sh config/server02.properties &
//启动kafka01
[root@iZuf63aacjtzo5bxq68kfpZ kafka02]# bin/kafka-server-start.sh config/server03.properties &
// 出现Created topid test 则创建成功
[root@iZuf63aacjtzo5bxq68kfpZ kafka02]# bin/kafka-topics.sh --create --zookeeper 127.0.0.1:2181 --replication-factor 1 --partitions 1 --topic test1
Created topic test1.
[root@iZuf63aacjtzo5bxq68kfpZ kafka02]#
// test1就是创建的topic
[root@iZuf63aacjtzo5bxq68kfpZ kafka02]# bin/kafka-topics.sh --list --zookeeper localhost:2181
test1
[root@iZuf63aacjtzo5bxq68kfpZ kafka02]#
// 生产数据 111
[root@iZuf63aacjtzo5bxq68kfpZ kafka02]# bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test1
>111
>>222
// 111 222就是消费的数据
[root@iZuf63aacjtzo5bxq68kfpZ kafka02]# bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test1 --from-beginning
111
222
Processed a total of 2 messages
[root@iZuf63aacjtzo5bxq68kfpZ kafka02]#
到此结束kafka伪集群就集成了哦。如果想启动方便可以写个启动和关闭脚本。