Flink读取Kafka报Error sending fetch request

本文涉及的产品
实时计算 Flink 版,1000CU*H 3个月
日志服务 SLS,月写入数据量 50GB 1个月
简介: 实时计算Flink读取消息队列Kafka,flink日志中出现Error sending fetch request (sessionId=1510763375, epoch=12890978) to node 103: {}.org.apache.flink.kafka.shaded.org.apache.kafka.common.errors.DisconnectException: null

1.概述

近日flinksql作业出现不稳定,查看kafka侧以及flink日志,找到了出现波动时间段附近的日志中有这个信息:

org.apache.flink.kafka.shaded.org.apache.kafka.clients.FetchSessionHandler [] - [ConsumerclientId=consumer-kafka_alarm_10013-2, groupId=kafka_alarm_10013] Errorsendingfetchrequest (sessionId=836884100, epoch=4625) tonode103: {}. org.apache.flink.kafka.shaded.org.apache.kafka.common.errors.DisconnectException: null

初一看应该链接问题,检查kafka集群发现生产流量正常,消费流量出现降,这应该就是flink消费端链接kafka出现了问题。

2.解决

在stackoverflow上发现了同样错误的问题

setting logging.level.org.apache.kafka.*=DEBUG logs to DEBUG shows:

DEBUGorg.apache.kafka.clients.NetworkClient-Disconnectingfromnode1duetorequesttimeout.
DEBUGorg.apache.kafka.clients.consumer.internals.ConsumerNetworkClient-CancelledrequestwithheaderRequestHeader(apiKey=FETCH, apiVersion=11, clientId=consumer-1, correlationId=183) duetonode1beingdisconnectedDEBUGorg.apache.kafka.clients.NetworkClient-GiveupsendingmetadatarequestsincenonodeisavailableINFOorg.apache.kafka.clients.FetchSessionHandler-Errorsendingfetchrequest (sessionId=INVALID, epoch=INITIAL) tonode1: {}.
org.apache.kafka.common.errors.DisconnectException: nullDEBUGorg.apache.kafka.clients.NetworkClient-Giveupsendingmetadatarequestsincenonodeisavailable

通过分析debug日志给出了如下答复:增加request.timeout.ms参数(default 30000) 

props.put(ConsumerConfig.REQUEST_TIMEOUT_MS_CONFIG, "60000");

增加这个参数应该可以解决链接问题,但为何产生这个异常呢。

3.源码分析

根据问题日志找到该类org.apache.kafka.clients.FetchSessionHandler

image.png

在这个类里搜索出错信息,发现了这个方法handleError

/*** Handle an error sending the prepared request.*处理发送已准备的请求的错误* When a network error occurs, we close any existing fetch session on our next request,* and try to create a new session.*当发生网络故障时,在下一个请求中关闭任何已存在的fetch会话,并尝试创建一个新会话* @param t     The exception.*/publicvoidhandleError(Throwablet) {
log.info("Error sending fetch request {} to node {}: {}.", nextMetadata, node, t.toString());
nextMetadata=nextMetadata.nextCloseExisting();
    }

说明当网络故障时,就会调用改方法,我们来看是谁调用了该方法

image.png

找到该类org.apache.kafka.clients.consumer.internals.Fetcher

/*** Set-up a fetch request for any node that we have assigned partitions for which doesn't already have* an in-flight fetch or pending fetch data.*为我们已为其分配分区且尚未有正在进行中的提取或待处理的提取数据的任何节点设置提取请求* @return number of fetches sent*/publicsynchronizedintsendFetches() {
Map<Node, FetchSessionHandler.FetchRequestData>fetchRequestMap=prepareFetchRequests();
for (Map.Entry<Node, FetchSessionHandler.FetchRequestData>entry : fetchRequestMap.entrySet()) {
finalNodefetchTarget=entry.getKey();
finalFetchSessionHandler.FetchRequestDatadata=entry.get创建Value();
// todo:创建获取数据的请求finalFetchRequest.Builderrequest=FetchRequest.Builder                    .forConsumer(this.maxWaitMs, this.minBytes, data.toSend())
                    .isolationLevel(isolationLevel)
                    .setMaxBytes(this.maxBytes)
                    .metadata(data.metadata())
                    .toForget(data.toForget());
if (log.isDebugEnabled()) {
log.debug("Sending {} {} to broker {}", isolationLevel, data.toString(), fetchTarget);
            }
// todo:发送所有requestclient.send(fetchTarget, request)
// todo:发送完成后调用这个回调函数                    .addListener(newRequestFutureListener<ClientResponse>() {
@OverridepublicvoidonSuccess(ClientResponseresp) {
synchronized (Fetcher.this) {
@SuppressWarnings("unchecked")
FetchResponse<Records>response= (FetchResponse<Records>) resp.responseBody();
FetchSessionHandlerhandler=sessionHandler(fetchTarget.id());
if (handler==null) {
log.error("Unable to find FetchSessionHandler for node {}. Ignoring fetch response.",
fetchTarget.id());
return;
                                }
if (!handler.handleResponse(response)) {
return;
                                }
Set<TopicPartition>partitions=newHashSet<>(response.responseData().keySet());
FetchResponseMetricAggregatormetricAggregator=newFetchResponseMetricAggregator(sensors, partitions);
for (Map.Entry<TopicPartition, FetchResponse.PartitionData<Records>>entry : response.responseData().entrySet()) {
TopicPartitionpartition=entry.getKey();
longfetchOffset=data.sessionPartitions().get(partition).fetchOffset;
FetchResponse.PartitionData<Records>fetchData=entry.getValue();
log.debug("Fetch {} at offset {} for partition {} returned fetch data {}",
isolationLevel, fetchOffset, partition, fetchData);
completedFetches.add(newCompletedFetch(partition, fetchOffset, fetchData, metricAggregator,
resp.requestHeader().apiVersion()));
                                }
sensors.fetchLatency.record(resp.requestLatencyMs());
                            }
                        }
// todo:调用异常时走这个函数,这个函数就调用了handleError方法@OverridepublicvoidonFailure(RuntimeExceptione) {
synchronized (Fetcher.this) {
FetchSessionHandlerhandler=sessionHandler(fetchTarget.id());
if (handler!=null) {
handler.handleError(e);
                                }
                            }
                        }
                    });
        }

从源码中发现,在创建完FetchRequest之后,如果出现异常就会回调onFailure,这个函数就调用了handleError方法。

所以这个异常就是在获取请求时发生了网络抖动,造成日志中的错误。


如有分析错误,欢迎指正

拜了个拜

目录
相关文章
|
2月前
|
人工智能 数据处理 API
阿里云、Ververica、Confluent 与 LinkedIn 携手推进流式创新,共筑基于 Apache Flink Agents 的智能体 AI 未来
Apache Flink Agents 是由阿里云、Ververica、Confluent 与 LinkedIn 联合推出的开源子项目,旨在基于 Flink 构建可扩展、事件驱动的生产级 AI 智能体框架,实现数据与智能的实时融合。
349 6
阿里云、Ververica、Confluent 与 LinkedIn 携手推进流式创新,共筑基于 Apache Flink Agents 的智能体 AI 未来
消息中间件 存储 传感器
210 0
|
6月前
|
消息中间件 SQL 关系型数据库
Flink CDC + Kafka 加速业务实时化
Flink CDC 是一种支持流批一体的分布式数据集成工具,通过 YAML 配置实现数据传输过程中的路由与转换操作。它已从单一数据源的 CDC 数据流发展为完整的数据同步解决方案,支持 MySQL、Kafka 等多种数据源和目标端(如 Delta Lake、Iceberg)。其核心功能包括多样化数据输入链路、Schema Evolution、Transform 和 Routing 模块,以及丰富的监控指标。相比传统 SQL 和 DataStream 作业,Flink CDC 提供更灵活的 Schema 变更控制和原始 binlog 同步能力。
|
7月前
|
消息中间件 运维 Kafka
直播预告|Kafka+Flink 双引擎实战:手把手带你搭建分布式实时分析平台!
直播预告|Kafka+Flink 双引擎实战:手把手带你搭建分布式实时分析平台!
226 12
|
7月前
|
消息中间件 运维 Kafka
直播预告|Kafka+Flink双引擎实战:手把手带你搭建分布式实时分析平台!
在数字化转型中,企业亟需从海量数据中快速提取价值并转化为业务增长动力。5月15日19:00-21:00,阿里云三位技术专家将讲解Kafka与Flink的强强联合方案,帮助企业零门槛构建分布式实时分析平台。此组合广泛应用于实时风控、用户行为追踪等场景,具备高吞吐、弹性扩缩容及亚秒级响应优势。直播适合初学者、开发者和数据工程师,参与还有机会领取定制好礼!扫描海报二维码或点击链接预约直播:[https://developer.aliyun.com/live/255088](https://developer.aliyun.com/live/255088)
529 35
直播预告|Kafka+Flink双引擎实战:手把手带你搭建分布式实时分析平台!
|
9月前
|
消息中间件 关系型数据库 MySQL
基于 Flink CDC YAML 的 MySQL 到 Kafka 流式数据集成
基于 Flink CDC YAML 的 MySQL 到 Kafka 流式数据集成
905 0
|
10月前
|
消息中间件 关系型数据库 MySQL
基于 Flink CDC YAML 的 MySQL 到 Kafka 流式数据集成
本教程展示如何使用Flink CDC YAML快速构建从MySQL到Kafka的流式数据集成作业,涵盖整库同步和表结构变更同步。无需编写Java/Scala代码或安装IDE,所有操作在Flink CDC CLI中完成。首先准备Flink Standalone集群和Docker环境(包括MySQL、Kafka和Zookeeper),然后通过配置YAML文件提交任务,实现数据同步。教程还介绍了路由变更、写入多个分区、输出格式设置及上游表名到下游Topic的映射等功能,并提供详细的命令和示例。最后,包含环境清理步骤以确保资源释放。
749 2
基于 Flink CDC YAML 的 MySQL 到 Kafka 流式数据集成
|
10月前
|
消息中间件 Kafka 流计算
docker环境安装kafka/Flink/clickhouse镜像
通过上述步骤和示例,您可以系统地了解如何使用Docker Compose安装和配置Kafka、Flink和ClickHouse,并进行基本的验证操作。希望这些内容对您的学习和工作有所帮助。
1005 28
|
11月前
|
消息中间件 存储 缓存
kafka 的数据是放在磁盘上还是内存上,为什么速度会快?
Kafka的数据存储机制通过将数据同时写入磁盘和内存,确保高吞吐量与持久性。其日志文件按主题和分区组织,使用预写日志(WAL)保证数据持久性,并借助操作系统的页缓存加速读取。Kafka采用顺序I/O、零拷贝技术和批量处理优化性能,支持分区分段以实现并行处理。示例代码展示了如何使用KafkaProducer发送消息。
|
消息中间件 存储 运维
为什么说Kafka还不是完美的实时数据通道
【10月更文挑战第19天】Kafka 虽然作为数据通道被广泛应用,但在实时性、数据一致性、性能及管理方面存在局限。数据延迟受消息堆积和分区再平衡影响;数据一致性难以达到恰好一次;性能瓶颈在于网络和磁盘I/O;管理复杂性涉及集群配置与版本升级。
472 1