LINUX搭建KAFKA集群

一、服务器环境

LINUX:centOS 6.5

JAVA:1.8.0_171

二、安装配置

1、安装配置ZooKeeper集群

(1)创建zookeeper目录,快照日志存放目录dataDir、事务日志存放目录dataLogDir

[root@wzq ~]# cd /opt

[root@wzq opt]# mkdir zookeeper

[root@wzq zookeeper]# mkdir -p dataDir

[root@wzq zookeeper]# mkdir dataLogDir

(2)下载解压zookeeper

[root@wzq opt]# wget http://mirrors.cnnic.cn/apache/zookeeper/zookeeper-3.4.12/zookeeper-3.4.12.tar.gz

[root@wzq opt]# tar zxf  zookeeper-3.4.12.tar.gz

(3)修改配置文件

[root@wzq opt]# cd /zookeeper-3.4.12/conf/

[root@wzq conf]# mv zoo_sample.cfg zoo.cfg

[root@console conf]# vim zoo.cfg

# 存放数据文件

dataDir=/opt/zookeeper/dataDir

# 存放日志文件

dataLogDir=/opt/zookeeper/dataLogDir

clientPort=2181

initLimit=5

syncLimit=2

# zookeeper cluster,2888为选举端口,3888为心跳端口

server.1=192.168.2.128:2888:3888

server.2=192.168.2.129:2888:3888

server.3=192.168.2.133:2888:3888

在dataDir指定的目录下面,创建一个myid文件,里面内容为一个数字,用来标识当前主机,conf/zoo.cfg文件中配置的server.X中X为什么数字,则myid文件中就输入这个数字。

(4)启动和关闭zk

[root@console bin]# ./zkServer.sh start

[root@console bin]# ./zkServer.sh stop

(5)查看zookeeper启动状态,包括集群中各个结点的角色(leader、follower)

[root@wzq bin]# ./zkServer.sh status

ZooKeeper JMX enabled by default

Using config: /opt/zookeeper/zookeeper-3.4.12/bin/../conf/zoo.cfg

Mode: leader

其它主机同理设置。

2、安装配置kafka集群

(1)创建消息持久化目录

[root@wzq ~]# cd /opt

[root@wzq opt]# mkdir kafka

[root@wzq opt]# mkdir /kafkaLogs

(2)下载解压kafka

[root@wzq kafka]# wget http://mirrors.cnnic.cn/apache/kafka/1.1.0/ kafka_2.12-1.1.0.tgz

[root@wzq kafka]# tar zxf kafka_2.12-1.1.0

(3)修改配置

[root@wzq kafka]# cd kafka_2.12-1.1.0/config/

[root@wzq config]# vim server.properties



修改broker.id

LINUX搭建KAFKA集群_第1张图片
修改kafka监听地址

修改消息持久化目录

LINUX搭建KAFKA集群_第2张图片
修改zk地址

auto.create.topics.enable=false    #关闭自动创建topic


delete.topic.enable=true  #添加启用删除topic配置


其它主机同理设置。

(4)启动集群

[root@wzq bin]# ./kafka-server-start.sh -daemon ../config/server.properties

(5)测试集群

创建topic

为Topic创建分区时,--partitions(分区数)最好是broker数量的整数倍,这样才能使一个Topic的分区均匀的分布在整个Kafka集群中。

[root@wzq kafka_2.12-1.1.0]# ./bin/kafka-topics.sh --create --zookeeper 192.168.2.128:2181,192.168.2.129:2181,192.168.2.133 --replication-factor 1 --partitions 1 --topic TEST1

创建一个producer程序

[root@wzq bin]# ./kafka-console-producer.sh --broker-list 192.168.2.129:9092 --topic TEST1

创建consumer程序

[root@wzq kafka_2.12-1.1.0]# bin/kafka-console-consumer.sh --bootstrap-server 192.168.2.129:9092 --topic TEST1 --from-beginning

producer发送消息,consumer接收,至此,KAFKA搭建完成。


producer 发送消息


consumer接收消息


PS:

(1)单纯的kafka broker集群没有意义,一台宕机照样出错,必须带上zookeeper集群一起。

(2)broker和zookeeper都至少要三台服务器,奇数台。

(3)每次打开consumer都会收到历史消息,消息保存在kafkaLogs/TEST1-0/00000000000000000000.log

(4)broker的server.properties参数解释

broker.id=0 #当前机器在集群中的唯一标识,和zookeeper的myid性质一样

port=19092 #当前kafka对外提供服务的端口默认是9092

host.name=192.168.7.100 #这个参数默认是关闭的,在0.8.1有个bug,DNS解析问题,失败率的问题。

num.network.threads=3 #这个是borker进行网络处理的线程数

num.io.threads=8 #这个是borker进行I/O处理的线程数

log.dirs=/opt/kafka/kafkalogs/ #消息存放的目录,这个目录可以配置为“,”逗号分割的表达式,上面的num.io.threads要大于这个目录的个数这个目录,如果配置多个目录,新创建的topic他把消息持久化的地方是,当前以逗号分割的目录中,那个分区数最少就放那一个

socket.send.buffer.bytes=102400 #发送缓冲区buffer大小,数据不是一下子就发送的,先回存储到缓冲区了到达一定的大小后在发送,能提高性能

socket.receive.buffer.bytes=102400 #kafka接收缓冲区大小,当数据到达一定大小后在序列化到磁盘

socket.request.max.bytes=104857600 #这个参数是向kafka请求消息或者向kafka发送消息的请请求的最大数,这个值不能超过java的堆栈大小

num.partitions=1 #默认的分区数,一个topic默认1个分区数

log.retention.hours=168 #默认消息的最大持久化时间,168小时,7天

message.max.byte=5242880  #消息保存的最大值5M

default.replication.factor=2  #kafka保存消息的副本数,如果一个副本失效了,另一个还可以继续提供服务

replica.fetch.max.bytes=5242880  #取消息的最大直接数

log.segment.bytes=1073741824 #这个参数是:因为kafka的消息是以追加的形式落地到文件,当超过这个值的时候,kafka会新起一个文件

log.retention.check.interval.ms=300000 #每隔300000毫秒去检查上面配置的log失效时间(log.retention.hours=168 ),到目录查看是否有过期的消息如果有,删除

log.cleaner.enable=false #是否启用log压缩,一般不用启用,启用的话可以提高性能

zookeeper.connect=192.168.7.100:12181,192.168.7.101:12181,192.168.7.107:1218 #设置zookeeper的连接端口

你可能感兴趣的:(LINUX搭建KAFKA集群)