ELK+Kafka学习笔记之FileBeat日志合并配置输出到kafka集群

 

filebeat.prospectors:

- type: log               #日志输出类型
  enabled: true                                                           
  paths:                  #定义收集日志的目录 
    - /data/apps/logs/test1/*
  fields:                 #自定义的两个字段,区分日志类型及host
        type: test1
        host: 161


  ignore_older: 1h        #忽略一小时以为的日志变化

  multiline.pattern: '(WARN|DEBUG|ERROR|INFO) \d{4}/\d{2}/\d{2}'             #正则匹配 符合的日志文件.
  multiline.negate: true              #为true,表示不满足正则匹配条件的日志
  multiline.match: after              #after 追加到文件后面


filebeat.config.modules:
  path: ${path.config}/modules.d/*.yml

  reload.enabled: false

setup.template.settings:
  index.number_of_shards: 3

output.kafka:
    enabled: true
    hosts: ["192.168.0.11:9092","192.168.0.12:9092","192.168.0.13:9092"]
    topic: "test-log"

 

注:multiline字段,必须每个日志类型一个,不然日志不会合并.(坑)

样例图:

ELK+Kafka学习笔记之FileBeat日志合并配置输出到kafka集群_第1张图片

 

参考

转载于:https://www.cnblogs.com/JetpropelledSnake/p/10069098.html

你可能感兴趣的:(大数据,网络)