日志平台搭建第六章:logstash通过kafka通道采集日志信息

1.修改文件/opt/app/elk/logstash-7.5.1/config.d/config1.conf,在input下添加kafka采集配置

#192.168.128.130:9103:kafka地址
#topics:主题
kafka {
 bootstrap_servers => ["192.168.128.130:9103"]
 group_id => "logstash"
 topics => ["demo"]
 consumer_threads => 1
 decorate_events => true
 add_field => {"from" => "demo"}
}

日志平台搭建第六章:logstash通过kafka通道采集日志信息_第1张图片

修改完配置文件后,不需要手动重启,因为之前在启动logstash时,配置了以下内容

日志平台搭建第六章:logstash通过kafka通道采集日志信息_第2张图片

kafka消息发送端发送消息

#进入kafka容器
docker exec -it kafka sh
 
#进入到/opt/kafka/bin目录
cd /opt/kafka/bin

#启动消息发送端
./kafka-console-producer.sh --broker-list localhost:9092 --topic demo

logstash控制台会输出以下内容

kibana服务中查询出es的mylog索引中会采集到kafka的信息

日志平台搭建第六章:logstash通过kafka通道采集日志信息_第3张图片

你可能感兴趣的:(日志平台搭建,kafka,分布式)