Hadoop-Flume基础理论入门(1)

简介: Hadoop-Flume基础理论入门(1)

一.基本概念


flume是一个分布式日志采集系统,可对接各种数据输入源,具有高可用,可平滑扩展的特点;


image.png


flume用于简单示意图


flume像是一个管道,可以接入多种数据源,比如系统日志,文件系统及http请求等,并将收集到的信息存入Hdfs/Hbase中.


flume支持多路径流量,多管道接入流量(就是允许同时接入多种数据源),多管道接出流量(允许向多种数据源输出),上下文路由(也就是路由选择,可以使用多种策略,比如复制策略和复用策略)等。


二.flume组件介绍



image.png


flume外部架构


数据发生器(如:facebook,twitter)产生的数据被单个的运行在数据发生器所在服务器上的agent所收集,之后数据收容器从各个agent上汇集数据并将采集到的数据存入到HDFS或者HBase中。


注意:


1. agent和collector一般部署在不同的机器上,用于解耦合;
2. agent的数量一般要比collector多,n:1;
3. 其实从配置上agent和collector一样,只是职能分工不一样而已。


2.1 传输数据格式


storm  -- > Tuple
Hdfs    --> block
Flume  --> Event事件
Flume使用Event对象来作为传递数据的格式,是内部数据传输的最基本单元.


Event由两部分组成: header(可有可无)和body(数据)


image.png


Event的结构组成


(1)  Header头部(可选)


Header 是 key/value 形式的,可以用来制造路由决策或携带其他结构化信息(如事件的时间戳或事件来源的服务器主机名)。


你可以把它想象成和 HTTP 头一样提供相同的功能——通过该方法来传输正文之外的额外信息。


Flume提供的不同source会给其生成的event添加不同的header.(偷偷的告诉你,这就是可配置的拦截器的包装功能).


header存在时,也可以用于消息的分发.


(2)  Body(存储实际的数据)


Body是一个字节数组,包含了实际的内容,


2.2 重要组件-agent


agent,又叫代理,它是一个守护进程(JVM),可以用来监控系统.一旦系统产生日志,便开始进行采集.主要就是用来接收和汇集消息.


Flume内部可以有一个或者多个agent.多个agent之间的通信是通过Avro进行的.

深入到agent内部,agent包括三个必不可少的模块:source,channel和sink.


image.png


Agent三大组件


(1) source:用于对接各种输入源(数据源)

它是flume源;flume之间交互是以Event的格式,当一个Flume源接收到一个事件时,source将通过一个或者多个channel存储该事件.


(2) channel:可以理解为一个通道,进行被动的存储.

所以也可以看成是一个短暂的存储容器(容器),channel同时对接多个source与sink.

之所以做短暂的存储而不是立即转移走,是为了积累到一定的量再进行批量的处理,这样可以提高效率,更利于提升性能.


channel具有完整的事务管理,可以保证数据在收发时候的一致性.


通过配置,channel中的数据可以存储到缓存memory中,也可以存储到文件中.存储到memery中,效率更快,吞吐率更高,但由于进行的是内存事务管理,所以当channel故障时,数据存在丢失的风险;为了保证数据的可靠性,一般选落地file文件的方式进行存储.


- channel存储空间有限,为了防止接收Event过量超出容量,可以通过参数设置event的最大个数.
-Flume通常选择FileChannel,而不是用Memory Channel.


(3) sink: 用于对接各种输出源(存储)

sink成功取出event之后,会将事件event从channel中移除,并将事件存放到外部数据介质上.


所谓的外部数据介质,可以是Hdfs中,也可以是下一个Flume的source中.


另外,对于缓存在通道中的事件,source和sink是采用异步处理的方式.并不是channel收一个事件event之后,sink立马就过来取数据.


另外,在agent中还有两个可选的配置组件interceptor拦截器和selector选择器.


(1) interceptor拦截器: 可配置到source之前,对接入source的数据起到一个拦截,过滤与包装的功能,另外,多个拦截器可链式拼装,进行组合使用;


官方提供的已有拦截器:
– Timestamp Interceptor:
  在event的header中添加一个key叫:timestamp,value为当前的时间戳
– Host Interceptor:
  在event的header中添加一个key叫:host,value为当前机器的hostname或者ip
– Static Interceptor:
  可以在event的header中添加自定义的key和value
– Regex Filtering Interceptor:
  通过正则来清洗或包含匹配的events
– Regex Extractor Interceptor:
  通过正则表达式来在header中添加指定的key,value则为正则匹配的部分


(2) selector选择器: 可配置到channel之前,进行路由选择,选择将数据传输到哪个channel中.


channel selector有两种类型:


– Replicating Channel Selector (default):将source过来的events发往所有channel
– Multiplexing Channel Selector:而Multiplexing 可以选择该发往哪些channel


image.png


channel


复制机制(默认机制)可以让各个存储节点均收到消息.


复用机制指可以指定消息具体流向哪里.


Multiplexing Channel Selector具体是如何做到有针对方向的进行消息分发的呢?这个就要又提到可配置到source之前的interceptor拦截器了.


比如,通过Host Interceptor可以在event的header中添加机器的ip,通过识别ip进行不同的分发;


2.3 flume可靠性说明


(1) flume的channel是一个完整的事务,数据在传送完成后,事件才从通道中移除.


(2)flume的channel可以暂存数据,当目标可以访问时,数据可以进行暂存到channel中,等目标可访问之后,再进行传输.


(3) 当Source对接的是上一个Agent的Sink时,Source和Sink封装在一个事务的存储和检索中,即事件的放置或者提供由一个事务通过通道来分别提供。这保证了事件集在流中可靠地进行端到端的传递。


– Sink开启事务
– Sink从Channel中获取数据
– Sink把数据传给另一个Flume Agent的Source中
– Source开启事务
– Source把数据传给Channel
– Source关闭事务
– Sink关闭事务


疑问点:这种source上游对接sink的情况,通过实现事务控制的方式,可以实现当source传event到channel过程中失败,sink实现event重传.但当source直接对接数据接入源时,又该如何实现呢?


2.4 复杂的流动


为了应对各种复杂多变的业务场景,flume的agent可以多个组合进行使用,agent的组件source,channel和link也可以像搭积木一样,组合使用.如图所示:


image.png


image.png


至于如何配置flume?使用flume且等下文.

相关文章
|
6月前
|
存储 分布式计算 Hadoop
大数据之hadoop3入门到精通(一)
大数据之hadoop3入门到精通(一)
300 1
|
4月前
|
存储 分布式计算 资源调度
Hadoop入门基础(三):如何巧妙划分Hadoop集群,全面提升数据处理性能?
Hadoop入门基础(三):如何巧妙划分Hadoop集群,全面提升数据处理性能?
|
6月前
|
分布式计算 Hadoop 分布式数据库
Hadoop生态系统介绍(二)大数据技术Hadoop入门理论系列之一----hadoop生态圈介绍
Hadoop生态系统介绍(二)大数据技术Hadoop入门理论系列之一----hadoop生态圈介绍
183 2
|
4月前
|
分布式计算 资源调度 Hadoop
Hadoop入门基础(五):Hadoop 常用 Shell 命令一网打尽,提升你的大数据技能!
Hadoop入门基础(五):Hadoop 常用 Shell 命令一网打尽,提升你的大数据技能!
|
4月前
|
分布式计算 资源调度 Hadoop
Hadoop入门基础(四):Hadoop启动踩坑记录
Hadoop入门基础(四):Hadoop启动踩坑记录
|
4月前
|
分布式计算 资源调度 Hadoop
Hadoop入门基础(二):Hadoop集群安装与部署详解(超详细教程)(二)
Hadoop入门基础(二):Hadoop集群安装与部署详解(超详细教程)(二)
|
4月前
|
分布式计算 Ubuntu Hadoop
Hadoop入门基础(二):Hadoop集群安装与部署详解(超详细教程)(一)
Hadoop入门基础(二):Hadoop集群安装与部署详解(超详细教程)(一)
|
4月前
|
存储 分布式计算 资源调度
Hadoop入门基础(一):深入探索Hadoop内部处理流程与核心三剑客
Hadoop入门基础(一):深入探索Hadoop内部处理流程与核心三剑客
|
6月前
|
存储 分布式计算 安全
大数据之hadoop3入门到精通(三)
大数据之hadoop3入门到精通(三)
|
6月前
|
SQL 资源调度 大数据
大数据之hadoop3入门到精通(二)
大数据之hadoop3入门到精通(二)
100 2

相关实验场景

更多
下一篇
DataWorks