Kafka---Kafka安装(单机版)

Kafka安装(单机版)


文章目录

  • Kafka安装(单机版)
  • 上传压缩包
  • 解压
  • 更名
  • 配置文件
  • 修改myid
  • 启动zookeeper
  • 启动kafka
  • 创建topic
  • 查看消息队列
  • 查看消息队列详情
  • 生产消息
  • 消费消息
  • 查询指定对列消息数量


上传压缩包

将压缩包上传到/opt/install
Kafka---Kafka安装(单机版)_第1张图片

解压

tar -zxf ./kafka_2.12-2.8.0.tgz -C …/soft/

更名

切换到/opt/soft/目录下

mv kafka_2.12-2.8.0/ kafka212

配置文件

cd /opt/soft/kafka212/config
vim ./server.properties

在这里插入图片描述

21 broker.id=0  集群的话需要改
36 advertised.listeners=PLAINTEXT://192.168.95.150:9092
60 log.dirs=/opt/soft/kafka212/data    消息存放目录
103 log.retention.hours=1680           消息存放时间小时
123 zookeeper.connect=192.168.95.150:2181  连接zookeeper
137 delete.topic.enable=true      设置可以对topic删除,默认不能删除

修改myid

mkdir /opt/soft/kafka212/data
echo "0">/opt/soft/kafka212/data/myid

在这里插入图片描述

启动zookeeper

zkServer.sh start
zkServer.sh status

Kafka---Kafka安装(单机版)_第2张图片

启动kafka

nohup kafka-server-start.sh /opt/soft/kafka212/config/server.properties &

Kafka---Kafka安装(单机版)_第3张图片

创建topic

这个创建两个topic
first—分区1,副本1
bigdata—分区3,副本1

kafka-topics.sh --create --zookeeper 192.168.95.150:2181 --topic first --partitions 1 --replication-factor 1
kafka-topics.sh --create --zookeeper 192.168.95.150:2181 --topic bigdata --partitions 3 --replication-factor 1

查看消息队列

kafka-topics.sh --zookeeper 192.168.95.150:2181 --list

在这里插入图片描述

查看消息队列详情

kafka-topics.sh --describe --zookeeper 192.168.95.150:2181 --topic first

在这里插入图片描述

kafka-topics.sh --describe --zookeeper 192.168.95.150:2181 --topic bigdata

在这里插入图片描述

生产消息

这里向topic 是bigdata发送了三条数据

kafka-console-producer.sh --topic bigdata --broker-list 192.168.95.150:9092

在这里插入图片描述

消费消息

假设消费者只获取第三条
可以加参数 --from-beginning 从头获取

kafka-console-consumer.sh --bootstrap-server 192.168.95.150:9092 --topic bigdata

在这里插入图片描述

kafka-console-consumer.sh --bootstrap-server 192.168.95.150:9092 --topic bigdata --from-beginning

Kafka---Kafka安装(单机版)_第4张图片

查询指定对列消息数量

kafka-run-class.sh kafka.tools.GetOffsetShell --broker-list 192.168.95.150:9092 --topic bigdata

在这里插入图片描述

你可能感兴趣的:(Kafka,kafka,分布式,大数据)