ElasticSearch解析logback日志并处理异常栈轨迹

文章目录

  • 背景
  • 分析
    • Ingest Pipeline解析日志 - 示例
      • 查看Ingest Pipeline
      • 创建Pipeline
        • 添加Grok处理器
        • 添加时间戳、IP地址和用户代理处理器
      • 测试Pipeline
    • 多行消息管理
      • filestream input
      • log input
  • 解决
    • 自定义pipeline解析logback日志
      • Grok处理器
      • Date处理器
      • 失败处理器
    • 为log input添加多行处理
    • 验证
      • 调整Kibana数据视图
      • 验证失败处理器
      • 验证java异常栈轨迹
  • 扩展
    • logback日志完整提取
  • 附录
    • 附录1:Grok调试 - Kibana
    • 附录2:Grok中的内置表达式
  • 参考

背景

使用Filebeat收集Logback打印的日志,但是存在两个问题:

  • 问题1:@timestamp显示的是Filebeat的采集时间,并不是日志中打印的日志时间,这就导致查看日志的时候,和实际日志时间不一致的问题。

<appender name="FILE" class

你可能感兴趣的:(【更新中...】项目中的那些事,elasticsearch,logback,pipeline,multiline,filebeat多行)