flume基本介绍

flume是一个日志收集的框架,配置简单,在大数据很多场景下都有应用,api也很简单,可以移步到官方文档中查看,但是在flume的应用中,发现有两个弊端,①配置只支持配置文件的方式,无法嵌入逻辑,如采集某个字段,将日志进行逐条过滤等;②偶尔出现丢失数据的情况,尤其是在对接kafka的场景下;针对第一种,可以采用logstash的技术,可以完成写逻辑,过滤等需求;

在一个完整的大数据处理系统中,除了hdfs+mapreduce+hive组成分析系统的核心之外,还需要数据采集、结果数据导出、任务调度等不可或缺的辅助系统,而这些辅助工具在hadoop生态体系中都有便捷的开源框架,如图所示:flume基本介绍_第1张图片
1. 日志采集框架Flume
1.1 Flume介绍
1.1.1 概述
Flume是一个分布式、可靠、和高可用的海量日志采集、聚合和传输的系统。
Flume可以采集文件,socket数据包等各种形式源数据,又可以将采集到的数据输出到HDFS、hbase、hive、kafka等众多外部存储系统中
一般的采集需求,通过对flume的简单配置即可实现
Flume针对特殊场景也具备良好的自定义扩展能力,因此,flume可以适用于大部分的日常数据采集场景
 
1.1.2 运行机制
1、 Flume分布式系统中最 核心的角色是agent ,flume采集系统就是由一个个agent所连接起来形成
2、 每一个agent相当于一个数据传递员,内部有三个组件:
a) Source:采集源,用于跟数据源对接,以获取数据
b) Sink:下沉地,采集数据的传送目的,用于往下一级agent传递数据或者往最终存储系统传递数据
c) Channel:angent内部的数据传输通道,用于从source将数据传递到sink
flume基本介绍_第2张图片
1.1.4 Flume采集系统结构图
 
1. 简单结构
单个agent采集数据
flume基本介绍_第3张图片
2. 复杂结构
多级agent之间串联
flume基本介绍_第4张图片

简单介绍就到这里,请关注后续文章:flume的简单配置

你可能感兴趣的:(大数据小组件)