LogStash filter使用探究(持续更新中)

   自己对logstash 的小小研究。

<一> grok

  1. 自定义grok格式

    在conf 文件的文件夹同级目录下,一般是在patterns 文件夹下,建立自己的pattern 文件,比如extra 文件

    # contents of ./patterns/postfix:

    POSTFIX_QUEUEID [0-9A-F]{10,11}

使用举例,针对日志格式:Jan 1 06:25:43 mailserver14 postfix/cleanup[21403]: BEF25A72965: message-id=<20130101142543.5828399CCAF@mailserver14

conf 配置:

 grok{

    patterns_dir => "./patterns"

    match => [ "message", "%{SYSLOGBASE} %{POSTFIX_QUEUEID:queue_id}: %{GREEDYDATA:syslog_message}" ]

  }

}

结果为:

LogStash filter使用探究(持续更新中)_第1张图片

匹配正确

2.一些比较神奇的Grok Pattern

比如:GREEDYDATA .*

说明:如果我不想面面俱到的匹配一坨东西,直接用Greedydata

举例:比如匹配,52:awfasdf0r8b123e:222g1g16:885579b2:9afr

    在filter 的grok 中,添加%{GREEDYDATA:sth},即可匹配上面那一串。如果你想更详细的匹配,那就自己写正则,对每一项进行匹配。 


<二> 

<三> 实际使用举例

1. 想处理java 日志信息,包括正常的info 与错误的堆栈信息怎么处理?

思路

    filter 中,使用 multiline 对日志信息进行分组;然后使用grok 进行拆分。

需要注意的事情,可能会遇到换行的问题,这个时候怎么做?

这个时候的处理是这样的,使用GREEDYDATA 是无效的,因为这只是匹配 .* ,而 . 是不匹配 newline 的,这个时候,应该将 GreedyData 换成:

(?<message>(.|\r|\n)*)

这样就可以匹配换行。


你可能感兴趣的:(LogStash filter使用探究(持续更新中))