Flume-ng Exec “丢数据”

简介:

在解决了Flume-HDFS“丢数据”的问题后还听到抱怨说Flume还丢数据,如果说数据重复是可以理解的,我一直不理解为什么还丢呢?

今天同事发现在agent端日志里一段异常:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
20  Nov  2013  10 : 15 : 54 , 231  ERROR [pool- 10 -thread- 1 ] (org.apache.flume.source.ExecSource$ExecRunnable.run: 347 )  - Failed  while  running command: xxx.sh xxx.log
org.apache.flume.ChannelException: Unable to put batch on required channel: FileChannel channel_all { dataDirs: [xxx/data] }
         at org.apache.flume.channel.ChannelProcessor.processEventBatch(ChannelProcessor.java: 200 )
         at org.apache.flume.source.ExecSource$ExecRunnable.flushEventBatch(ExecSource.java: 376 )
         at org.apache.flume.source.ExecSource$ExecRunnable.run(ExecSource.java: 336 )
         at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java: 471 )
         at java.util.concurrent.FutureTask$Sync.innerRun(FutureTask.java: 334 )
         at java.util.concurrent.FutureTask.run(FutureTask.java: 166 )
         at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java: 1110 )
         at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java: 603 )
         at java.lang.Thread.run(Thread.java: 722 )
Caused by: org.apache.flume.ChannelException: Failed to obtain lock  for  writing to the log. Try increasing the log write timeout value. [channel=xxx]
         at org.apache.flume.channel.file.FileChannel$FileBackedTransaction.doPut(FileChannel.java: 478 )
         at org.apache.flume.channel.BasicTransactionSemantics.put(BasicTransactionSemantics.java: 93 )
         at org.apache.flume.channel.BasicChannelSemantics.put(BasicChannelSemantics.java: 80 )
         at org.apache.flume.channel.ChannelProcessor.processEventBatch(ChannelProcessor.java: 189 )
         ...  8  more

之后没有报错,但是Flume没有数据流出了,同事想试试根据异常的提示增加writetimeout.

再把报错发给我后,去年关于Flume的记忆又清晰起来,心中一个声音:MD Flume的默认行为还没有更改!报错的提示还这么误导!

梳理一下流程:exec source在执行Tail的时候,put数据到channel,当一直未获取到channel lock超时后,exec source会退出,而默认行为是不自动恢复重试!因此,这个问题根本不在于timeout,而在于source在存消息失败后需要快速恢复,Flume提供快速恢复的机制,但是默认竟然是关闭的!

加上这三个参数:restartThrottlerestartlogStdErr解决

但是其实用tail的方式在类似的情况下还会有“极少量”数据的丢失,想要真做到不丢数据,推荐spooling directory的方式;

另外,今天研究了一下kafkaAPI,这里也有“丢数据”的坑,敬请期待Flume“丢数据”系列三.


本文转自MIKE老毕 51CTO博客,原文链接:http://blog.51cto.com/boylook/1330210,如需转载请自行联系原作者


相关文章
|
数据采集 缓存 监控
Apache Flume-案例-监控采集文件夹变化 (exec source)|学习笔记
快速学习 Apache Flume-案例-监控采集文件夹变化 (exec source)
Apache Flume-案例-监控采集文件夹变化 (exec source)|学习笔记
|
监控 数据格式 JSON
25【在线日志分析】之基于Flume-ng Exec Source开发自定义插件ExecSource_JSON
1.将博客中 http://blog.itpub.net/30089851/viewspace-2131995/ 的AdvancedExecSource.java 文件重命名为ExecSource_STRING.
1353 0
|
监控 Java Maven
02【在线日志分析】之基于Flume-ng Exec Source开发自定义插件AdvancedExecSource
1.目的CDH的角色日志的一行基本组成:年月日 时分秒.毫秒 日志级别 日志信息 本博客主要是想基于Exec Source开发自定义插件AdvancedExecSource,将机器名称 和 服务名称 添加到一行数据的前面,则格式为:机器名称 服务名称 年月日 时分秒.毫秒 日志级别 日志信息   ; 2.关闭projet的Maven Project Builder选择 flume-ng-core,右键单击Properties,弹出Properties页面,单击左侧的Builders, 取消 Maven Project Builder,再 单击OK。
1543 0
|
7月前
|
存储 分布式计算 监控
【Flume】Flume 监听日志文件案例分析
【4月更文挑战第4天】【Flume】Flume 监听日志文件案例分析
|
7月前
|
存储 运维 监控
【Flume】flume 日志管理中的应用
【4月更文挑战第4天】【Flume】flume 日志管理中的应用
|
消息中间件 数据采集 SQL
1、电商数仓(用户行为采集平台)数据仓库概念、用户行为日志、业务数据、模拟数据、用户行为数据采集模块、日志采集Flume(一)
1、电商数仓(用户行为采集平台)数据仓库概念、用户行为日志、业务数据、模拟数据、用户行为数据采集模块、日志采集Flume(一)
|
4月前
|
存储 数据采集 数据处理
【Flume拓扑揭秘】掌握Flume的四大常用结构,构建强大的日志收集系统!
【8月更文挑战第24天】Apache Flume是一个强大的工具,专为大规模日志数据的收集、聚合及传输设计。其核心架构包括源(Source)、通道(Channel)与接收器(Sink)。Flume支持多样化的拓扑结构以适应不同需求,包括单层、扇入(Fan-in)、扇出(Fan-out)及复杂多层拓扑。单层拓扑简单直观,适用于单一数据流场景;扇入结构集中处理多源头数据;扇出结构则实现数据多目的地分发;复杂多层拓扑提供高度灵活性,适合多层次数据处理。通过灵活配置,Flume能够高效构建各种规模的数据收集系统。
97 0
|
2月前
|
SQL 分布式计算 Hadoop
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
53 2
|
2月前
|
存储 数据采集 分布式计算
Hadoop-17 Flume 介绍与环境配置 实机云服务器测试 分布式日志信息收集 海量数据 实时采集引擎 Source Channel Sink 串行复制负载均衡
Hadoop-17 Flume 介绍与环境配置 实机云服务器测试 分布式日志信息收集 海量数据 实时采集引擎 Source Channel Sink 串行复制负载均衡
57 1
|
4月前
|
存储 分布式计算 大数据
【Flume的大数据之旅】探索Flume如何成为大数据分析的得力助手,从日志收集到实时处理一网打尽!
【8月更文挑战第24天】Apache Flume是一款高效可靠的数据收集系统,专为Hadoop环境设计。它能在数据产生端与分析/存储端间搭建桥梁,适用于日志收集、数据集成、实时处理及数据备份等多种场景。通过监控不同来源的日志文件并将数据标准化后传输至Hadoop等平台,Flume支持了性能监控、数据分析等多种需求。此外,它还能与Apache Storm或Flink等实时处理框架集成,实现数据的即时分析。下面展示了一个简单的Flume配置示例,说明如何将日志数据导入HDFS进行存储。总之,Flume凭借其灵活性和强大的集成能力,在大数据处理流程中占据了重要地位。
113 3