5.2.2
filebeat.prospectors:
-
input_type: log #默认log,从日志文件读取每一行。stdin,从标准输入读取
paths:
-
/var/log/*.log
encoding:
plain #编码,默认无,plain(不验证或者改变任何输入),
latin1, utf-8, utf-16be-bom, utf-16be, utf-16le, big5, gb18030, gbk, hz-gb-2312, euc-kr, euc-jp, iso-2022-jp, shift-jis
include_lines:
[‘^ERR’,
‘^WARN’]
exclude_lines:
[“^DBG”]
exclude_files:
[“.gz$”]
ignore_older:
0 #排除更改时间超过定义的文件,时间字符串可以用2h表示2小时,5m表示5分钟,默认0
document_type:
log #该type会被添加到type字段,对于输出到ES来说,这个输入时的type字段会被存储,默认log
scan_frequency:
10s #prospector扫描新文件的时间间隔,默认10秒
max_bytes:
10485760 #单文件最大收集的字节数,单文件超过此字节数后的字节将被丢弃,默认10MB,需要增大,保持与日志输出配置的单文件最大值一致即可
multiline.pattern:
^[ #多行匹配模式,后接正则表达式,默认无
multiline.negate:
false
multiline.match:
after #定义多行内容被添加到模式匹配行之后还是之前,默认无,可以被设置为after或者before
multiline.max_lines:
500 #单一多行匹配聚合的最大行数,超过定义行数后的行会被丢弃,默认500
multiline.timeout:
5s #多行匹配超时时间,超过超时时间后的当前多行匹配事件将停止并发送,然后开始一个新的多行匹配事件,默认5秒
tail_files:
false
close_renamed:
false
close_removed:
true
enabled:
true
filebeat.spool_size:
2048 #后台事件计数阈值,超过后强制发送,默认2048
filebeat.idle_timeout:
5s #后台刷新超时时间,超过定义时间后强制发送,不管spool_size是否达到,默认5秒
filebeat.registry_file:
${path.data}/registry
filebeat.config_dir:
name:
tags:
[“service-X”,
“web-tier”]
fields:
env:
staging
queue_size:
1000 #处理管道中单个事件内的队列大小,默认1000
max_procs:
output.elasticsearch:
enabled:
true
hosts:
[“localhost:9200”]
compression_level:
0 #gzip压缩级别,默认0,不压缩,压缩耗CPU
worker:
1 #每个ES的worker数?????,默认1
index:
“filebeat-%{+yyyy.MM.dd}”
pipeline:
“”
path:
“/elasticsearch”
proxy_url:
http://proxy:3128
max_retries:
3 #ES重试次数,默认3次,超过3次后,当前事件将被丢弃
bulk_max_size:
50 #对一个单独的ES批量API索引请求的最大事件数?????默认50
timeout:
90 #到ES的http请求超时时间?????默认90秒
output.logstash:
enabled:
true
hosts:
[“localhost:5044”]
worker:
1 #每个logstash的worker数?????,默认1
compression_level:
3 #压缩级别,默认3
loadbalance:
true
pipelining:
0 #在处理新的批量期间,异步发送至logstash的批量次数?????
index:
‘filebeat’
proxy_url:
socks5://user:password@socks5-server:2233
proxy_use_local_resolver:
false
output.kafka:
output.redis:
enabled:
true
hosts:
[“localhost:6379”]
port:
6379 #redis端口,如果hosts内未包含端口信息,默认6379
key:
filebeat #事件发布到redis的list或channel,默认filebeat
password:
db:
0 #redis的db值,默认0
datatype:
list #发布事件使用的redis数据类型,如果为list,使用RPUSH命令(生产消费模式)。如果为channel,使用PUBLISH命令{发布订阅模式}。默认为list
worker:
1 #为每个redis服务器启动的工作进程数,会根据负载均衡配置递增
loadbalance:
true
timeout:
5s #redis连接超时时间,默认5s
max_retries:
3 #filebeat会忽略此设置,并一直重试到全部发送为止,其他beat设置为0即忽略,默认3次
bulk_max_size:
2048 ##对一个redis请求或管道批量的最大事件数,默认2048
proxy_url:
proxy_use_local_resolver:
false
path.home:
path.config:
${path.home} #filebeat配置路径,主配置文件和es模板的默认基本路径,默认为filebeat家目录
path.data:
${path.home}/data
path.logs:
${path.home}/logs
logging.level:
info #设定日志级别,可设置级别有critical,
error, warning, info, debug
logging.selectors:
[ ] #开启debug输出的选择组件,开启所有选择使用[“*”],其他可用选择为”beat”,”publish”,”service”
logging.to_syslog:
true
logging.metrics.enabled:
true
logging.metrics.period:
30s #记录内部性能指标的周期,默认30秒
logging.to_files:
true
logging.files:
path:
/var/log/filebeat
name:
filebeat #日志文件名
rotateeverybytes:
10485760 #日志轮循大小,默认10MB
keepfiles:
7 #日志轮循文件保存数量,默认7
[root@jenkins
data]#
cat registry
[{“source”:”/var/log/messages”,”offset”:5912,”FileStateOS”:{“inode”:38382035,”device”:64768},”timestamp”:”2017-03-13T18:17:54.39159179+08:00”,”ttl”:-1}]
[root@jenkins
data]#
stat /var/log/messages
File:
‘/var/log/messages’
Size:
5912 Blocks: 16 IO Block: 4096 regular file
Device:
fd00h/64768d
Inode: 38382035 Links: 1
Access:
(0600/-rw——-)
Uid: ( 0/ root) Gid: ( 0/ root)
Context:
system_u:object_r:var_log_t:s0
Access:
2017-03-13 18:17:49.355444251 +0800
Modify:
2017-03-13 18:15:22.452429796 +0800
Change:
2017-03-13 18:15:22.452429796 +0800
Birth:
-
negate
match
false
after 连续匹配的行将被添加到前一个不匹配的行
false
before 连续匹配的行将被预合并到后一个不匹配的行
true
after 连续不匹配的行将被添加到前一个匹配的行
true
before 连续不匹配的行将被预合并到后一个匹配的行