FileBeat+kafka进行日志实时传输

前面我们聊到了filebeat+ELK来解决日志的问题,今天我们来聊聊filebeat+kafka解决日志实时传输的问题,首先filebeat只是一个简单的日志接受工具和日志发送工具,我们可以用filebeat部署到logserver上面,在用kafka做消息管道将日志传输出去。今天我们主要讲讲安装
FileBeat+kafka进行日志实时传输_第1张图片
kafka和filebeat的配置我们就不讲解了
如果还是不会的同学可以参考之前的文章

1、配置
我们直接将filebeat的配置吧,其实配置很简单,你只需要配置input和output就可以了,我们这里kafka采用单机模式,
- input_type: log
# Paths that should be crawled and fetched. Glob based paths.
paths:
- /opt/log/*.log

output.kafka:
enabled: true
hosts: [“192.168.18.160:9091”]
topic: test

2、启动 filebeat
filebeat -C filebeat_kafka.yml
3、启动kafka和comsumer
./kafka-console-consumer.sh –zookeeper 192.168.18.160:2181 –topic test –from-beginning
4、测试
往日志文件追加内容。从kafka的consumer端可以查看到消息

FileBeat+kafka进行日志实时传输_第2张图片

FileBeat+kafka进行日志实时传输_第3张图片

5、日志格式
日志消息的类型
@timestamp:消息发送时间
beat:Filebeat运行主机和版本信息
input_type:input类型
message:原始日志内容
offset:此条消息在原始日志文件中的offset
source:日志文件

你可能感兴趣的:(Elasticsearch)