Flume是一个高可用,高可靠,分布式海量日志采集、聚合和传输系统。
数据(日志信息)分布在N台机器上,想要把它们汇聚在一起来处理。
Flume支持在日志系统中定制各类数据发送方,用于收集数据;
同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。
Flume提供了从console(控制台)、RPC(Thrift-RPC)、text(文件)、tail(UNIX tail)、syslog(syslog日志系统,支持TCP和UDP等2种模式),exec(命令执行)等数据源上收集数据的能力。
Flume OG(original generation)和 Flume NG(next generation)是Flume的两个版本 NG在OG的基础之上,进行了里程碑式的改动:重构核心组件、核心配置以及代码架构。
Flume 的核心是把数据从数据源收集过来,再送到目的地。
为了保证输送一定成功,在送到目的地之前,会先缓存数据,待数据真正到达目的地后,删除自己缓存的数据。
Flume 传输的数据的基本单位是 Event,如果是文本文件,通常是一行记录,这也是事务的基本单位。
Event 从 Source,流向 Channel,再到 Sink,本身为一个 byte 数组,并可携带 headers 信息。
Event 代表着一个数据流的最小完整单元,从外部数据源来,向外部的目的地去。
Flume 运行的核心是 Agent。它是一个完整的数据收集工具,含有三个核心组件,分别是 Source、Channel、Sink。
Source 可以接收外部源发送过来的数据。不同的 Source,可以接受不同的数据格式。比如有目录池(spooling directory)数据源,可以监控指定文件夹中的新文件变化,如果目录中有文件产生,就会立刻读取其内容。
Channel 是一个存储地,接收 Source 的输出,直到有 Sink 消费掉 Channel 中的数据。
Channel 中的数据直到进入到下一个Channel中或者进入终端才会被删除。
当 Sink 写入失败后,可以自动重启,不会造成数据丢失,因此很可靠。
Sink 会消费 Channel 中的数据,然后送给外部源或者其他 Source。如数据可以写入到 HDFS 或者 HBase 中。
记录一下Flume中的核心概念:
Agent | Agent中包含多个sources和sinks。 |
Client | 生产数据,运行在一个独立的线程。 |
Source | 从Client收集数据,传递给Channel。用来消费传递到该组件的Event。 |
Sink | 从Channel收集数据,将Event传递到Flow Pipeline中的下一个Agent。 |
Channel | 中转Event临时存储,保存Source传递过来Event,连接 sources 和 sinks 。 |
Events | 一个数据单元,带有一个可选的消息头。可以是日志记录、 avro 对象等。 |
Agent是Flume中最小的运行单位,一个Agent中由Source、Sink和Channel三个组件构成。
如下图所示:
Event是Flume中基本数据单位,Event中包含有传输数据及数据头数据包
Flume 命令行参数:
global options: --conf,-c <conf> use configs in <conf> directory --classpath,-C <cp> append to the classpath --dryrun,-d do not actually start Flume, just print the command --plugins-path <dirs> colon-separated list of plugins.d directories. See the plugins.d section in the user guide for more details. Default: $FLUME_HOME/plugins.d -Dproperty=value sets a Java system property value -Xproperty=value sets a Java -X option agent options: --conf-file,-f <file> specify a config file (required) --name,-n <name> the name of this agent (required) --help,-h display help text avro-client options: --rpcProps,-P <file> RPC client properties file with server connection params --host,-H <host> hostname to which events will be sent --port,-p <port> port of the avro source --dirname <dir> directory to stream to avro source --filename,-F <file> text file to stream to avro source (default: std input) --headerFile,-R <file> File containing event headers as key/value pairs on each new line --help,-h display help text Either --rpcProps or both --host and --port must be specified.
使用flume-ng脚本启动Flume Agent 运行配置文件中指定的source和sink 启动命令类似于:
bin/flume-ng agent -n $agent_name -c conf -f conf/flume-conf.properties.template
配置文件示例:
# example.conf: A single-node Flume configuration # agent组件名称 a1.sources = r1 a1.sinks = k1 a1.channels = c1 # source 配置 a1.sources.r1.type = netcat a1.sources.r1.bind = localhost a1.sources.r1.port = 44444 # sink 配置 a1.sinks.k1.type = logger # 使用内存中Buffer Event Channel a1.channels.c1.type = memory a1.channels.c1.capacity = 1000 a1.channels.c1.transactionCapacity = 100 # 绑定 source 和 sink 到channel a1.sources.r1.channels = c1 a1.sinks.k1.channel = c1
参考资料:
[0] Flume NG:Flume 发展史上的第一次革命
http://www.ibm.com/developerworks/cn/data/library/bd-1404flumerevolution/index.html
[1] Flume NG 简介及配置实战
http://my.oschina.net/leejun2005/blog/288136#OSC_h1_1