Apache Flume(4):日志文件监控

1 案例说明

企业中应用程序部署后会将日志写入到文件中,可以使用Flume从各个日志文件将日志收集到日志中心以便于查找和分析。

2 使用Exec Soucre

  • Exec Source

Exec Source通过指定命令监控文件的变化,加粗属性为必须设置的。

属性名 默认值 说明
channels
type exec
command 要执行的命令
restart false 如果执行命令挂了是否要重启
batchSize 20 同时往channel发送的最大行数
batchTimeout 3000 批量发送超时时间
selector.type replicating channel选择器replicating 或者 multiplexing
selector.* 通道选择器匹配属性
interceptors 拦截器
interceptors.*

添加配置文件exec-log.conf

# 定义agent名称为a1
# 设置3个组件的名称
a1.sources = r1
a1.sinks = k1
a1.channels = c1

# 配置source类型为exec,命令为 tail -F app.log
a1.sources.r1.type = exec
a1.sources.r1.command = tail -F conf/app.log

# 配置sink类型为Logger
a1.sinks.k1.type = logger

# 配置channel类型为内存,内存队列最大容量为1000,一个事务中从source接收的Events数量或者发送给sink的Events数量最大为100
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100

# 将source和sink绑定到channel上
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

启动Flume

bin/flume-ng agent -n a1 -c ./ -f conf/exec-log.conf -Dflume.root.logger=INFO,console

可以查看agent控制台接收到了最新的日志

但是以上方法有重复消费的问题,每次启动都会全量读取log文件里的全部数据,下面我们解决重复消费问题。

3 解决重复消费问题

  • Taildir Source
属性名 默认值 说明
channels
type TAILDIR.
filegroups 可以定义多个组. 每个组里包含一序列被监控的文件
filegroups. 被监控文件的绝对路径,文件名支持正则表达式
positionFile ~/.flume/taildir_position.json 记录监控文件的绝对路径、上次读取位置的json文件

4 新增dir-log.conf

# 定义agent名称为a1
# 设置3个组件的名称
a1.sources = r1
a1.sinks = k1
a1.channels = c1

# 配置source类型为TAILDIR
a1.sources.r1.type = TAILDIR
a1.sources.r1.positionFile = /home/flume/position.json
a1.sources.r1.filegroups = f1 f2
a1.sources.r1.filegroups.f1 = /home/flume/conf/app.log
a1.sources.r1.filegroups.f2 = /home/flume/conf/logs/.*log

# 配置sink类型为Logger
a1.sinks.k1.type = logger

# 配置channel类型为内存,内存队列最大容量为1000,一个事务中从source接收的Events数量或者发送给sink的Events数量最大为100
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100

# 将source和sink绑定到channel上
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

启动Flume

bin/flume-ng agent -n a1 -c ./ -f conf/dir-log.conf -Dflume.root.logger=INFO,console

往app.log中写入数据

echo "1111">>app.log

flume接受数据

在logs文件夹中创建文件

touch app1.log

结果如下

你可能感兴趣的:(Apache,Flume,flume,大数据)