Kafka+Zookeeper集群搭建

环境准备

  • Kafka
    版本:kafka_2.10-0.10.2.0(2.10表示Scala版本 0.10.2.0表示Kafka版本)
    官方下载地址:http://kafka.apache.org/downloads
  • Zookeeper
    版本:zookeeper-3.4.13
    官方下载地址:http://zookeeper.apache.org/releases.html
  • JDK
    版本:jdk1.8.0_131
    官方下载地址:https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
  • 虚拟机
    A:192.168.1.1
    B:192.168.1.2
    C:192.168.1.3

安装步骤

一:配置JDK和环境变量

打开当前用户环境变量文件
vi ~/.bash_profile // 这里以当前用户为例
配置当前用户环境变量
export JAVA_HOME=/home/work/services/jdk1.8.0_131
export PATH=${JAVA_HOME}/bin:${PATH}
重新加载当前用户环境变量文件
source ~/.bash_profile
验证
java -version

二:搭建Zookeeper集群

以机器A为例

解压包
cd /home/work/dcs // 切换到下载目录
tar -zxvf zookeeper-3.4.13.tar.gz // 解压包
创建日志文件目录和数据文件目录
mkdir ./zookeeper-3.4.13/logs // 日志存放目录
mkdir ./zookeeper-3.4.13/data // 数据存放目录
打开配置文件
cd zookeeper-3.4.13/conf // 切换到配置目录
cp zoo_sample.cfg zoo.cfg // 根据样例配置文件复制出一个新的配置文件
vi zoo.cfg
修改配置文件
// 修改部分
dataDir=/home/work/dcs/zookeeper-3.4.13/data // 修改数据目录
// 添加部分
dataLogDir=/home/work/dcs/zookeeper-3.4.13/logs // 增加日志目录配置
server.0=192.168.1.1:2888:3888
server.1=192.168.1.2:2888:3888
server.2=192.168.1.3:2888:3888
新建myid文件
cd zookeeper-3.4.13/data // 切换到data目录
echo "0" > myid // id内容与上方server.*中的*对应
启动和关闭
// 启动
./bin/zkServer.sh start // 启动
// 关闭
./bin/zkServer.sh stop // 关闭

机器B、C配置和A一样

三:搭建Kafka集群

以机器A为例

解压包
cd /home/work/dcs // 切换到下载目录
tar -zxvf kafka_2.10-0.10.2.0.tgz // 解压包
创建数据日志文件目录
mkdir ./kafka_2.10-0.10.2.0/data // 数据日志存放目录
打开配置文件
cd kafka_2.10-0.10.2.0/config // 切换到配置文件目录
vi server.properties // 打开配置文件
修改配置文件
// 修改部分(A:192.168.1.1)
log.dirs=/home/work/dcs/kafka_2.10-0.10.2.0/data // 修改数据日志目录
broker.id=0 // 集群中保证唯一
listeners=PLAINTEXT://192.168.1.1:9092
advertised.listeners=PLAINTEXT://192.168.1.1:9092
zookeeper.connect=192.168.1.1:2181,192.168.1.2:2181,192.168.1.3:2181 // zookeeper的地址
// 修改部分(B:192.168.1.2)
log.dirs=/home/work/dcs/kafka_2.10-0.10.2.0/data // 修改数据日志目录
broker.id=1 // 集群中保证唯一
listeners=PLAINTEXT://192.168.1.2:9092
advertised.listeners=PLAINTEXT://192.168.1.2:9092
zookeeper.connect=192.168.1.1:2181,192.168.1.2:2181,192.168.1.3:2181 // zookeeper的地址
// 修改部分(C:192.168.1.3)
log.dirs=/home/work/dcs/kafka_2.10-0.10.2.0/data // 修改数据日志目录
broker.id=2 // 集群中保证唯一
listeners=PLAINTEXT://192.168.1.3:9092
advertised.listeners=PLAINTEXT://192.168.1.3:9092
zookeeper.connect=192.168.1.1:2181,192.168.1.2:2181,192.168.1.3:2181 // zookeeper的地址
启动和关闭
// 启动
./bin/kafka-server-start.sh config/server.properties // 启动-常规模式
nohup ./bin/kafka-server-start.sh config/server.properties > /dev/null 2>&1 & // 启动-守护进程模式
// 关闭
./bin/kafka-server-stop.sh // 关闭

机器B、C配置和A一样

验证
jps // 检验进程是否存在

四:测试

// 创建topic
sh kafka-topics.sh --create --zookeeper 192.168.1.1:2181,192.168.1.2:2181,192.168.1.3:2181 --replication-factor 1 --partitions 3 --topic test

// 查询topic list
sh kafka-topics.sh --zookeeper 192.168.1.1:2181,192.168.1.2:2181,192.168.1.3:2181 --list

// 查询某topic详情
sh kafka-topics.sh --zookeeper 10.101.22.182:8081,10.101.22.182:8082,10.101.22.182:8083 --describe --topic test

// 模拟客户端生产
bin/kafka-console-producer.sh --broker-list 192.168.1.1:2181,192.168.1.2:2181,192.168.1.3:2181 --topic test

// 模拟客户端订阅
sh kafka-console-consumer.sh --zookeeper 192.168.1.1:2181,192.168.1.2:2181,192.168.1.3:2181 --topic test --from-beginning

// 删除topic
sh kafka-topics.sh --delete --zookeeper 192.168.1.1:2181,192.168.1.2:2181,192.168.1.3:2181 --topic test

五:注意事项

  • 启动Zookeeper之前,确保机器安装了JDK
  • 开启Kafka之前必须启动所有的Zookeeper
  • 启动Kafka集群时,最好使用守护进程模式,否则终端退出时,程序也会自动关闭

你可能感兴趣的:(Kafka+Zookeeper集群搭建)