Flink读取Kafka报Error sending fetch request

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
日志服务 SLS,月写入数据量 50GB 1个月
简介: 实时计算Flink读取消息队列Kafka,flink日志中出现Error sending fetch request (sessionId=1510763375, epoch=12890978) to node 103: {}.org.apache.flink.kafka.shaded.org.apache.kafka.common.errors.DisconnectException: null

1.概述

近日flinksql作业出现不稳定,查看kafka侧以及flink日志,找到了出现波动时间段附近的日志中有这个信息:

org.apache.flink.kafka.shaded.org.apache.kafka.clients.FetchSessionHandler [] - [ConsumerclientId=consumer-kafka_alarm_10013-2, groupId=kafka_alarm_10013] Errorsendingfetchrequest (sessionId=836884100, epoch=4625) tonode103: {}. org.apache.flink.kafka.shaded.org.apache.kafka.common.errors.DisconnectException: null

初一看应该链接问题,检查kafka集群发现生产流量正常,消费流量出现降,这应该就是flink消费端链接kafka出现了问题。

2.解决

在stackoverflow上发现了同样错误的问题

setting logging.level.org.apache.kafka.*=DEBUG logs to DEBUG shows:

DEBUGorg.apache.kafka.clients.NetworkClient-Disconnectingfromnode1duetorequesttimeout.
DEBUGorg.apache.kafka.clients.consumer.internals.ConsumerNetworkClient-CancelledrequestwithheaderRequestHeader(apiKey=FETCH, apiVersion=11, clientId=consumer-1, correlationId=183) duetonode1beingdisconnectedDEBUGorg.apache.kafka.clients.NetworkClient-GiveupsendingmetadatarequestsincenonodeisavailableINFOorg.apache.kafka.clients.FetchSessionHandler-Errorsendingfetchrequest (sessionId=INVALID, epoch=INITIAL) tonode1: {}.
org.apache.kafka.common.errors.DisconnectException: nullDEBUGorg.apache.kafka.clients.NetworkClient-Giveupsendingmetadatarequestsincenonodeisavailable

通过分析debug日志给出了如下答复:增加request.timeout.ms参数(default 30000) 

props.put(ConsumerConfig.REQUEST_TIMEOUT_MS_CONFIG, "60000");

增加这个参数应该可以解决链接问题,但为何产生这个异常呢。

3.源码分析

根据问题日志找到该类org.apache.kafka.clients.FetchSessionHandler

image.png

在这个类里搜索出错信息,发现了这个方法handleError

/*** Handle an error sending the prepared request.*处理发送已准备的请求的错误* When a network error occurs, we close any existing fetch session on our next request,* and try to create a new session.*当发生网络故障时,在下一个请求中关闭任何已存在的fetch会话,并尝试创建一个新会话* @param t     The exception.*/publicvoidhandleError(Throwablet) {
log.info("Error sending fetch request {} to node {}: {}.", nextMetadata, node, t.toString());
nextMetadata=nextMetadata.nextCloseExisting();
    }

说明当网络故障时,就会调用改方法,我们来看是谁调用了该方法

image.png

找到该类org.apache.kafka.clients.consumer.internals.Fetcher

/*** Set-up a fetch request for any node that we have assigned partitions for which doesn't already have* an in-flight fetch or pending fetch data.*为我们已为其分配分区且尚未有正在进行中的提取或待处理的提取数据的任何节点设置提取请求* @return number of fetches sent*/publicsynchronizedintsendFetches() {
Map<Node, FetchSessionHandler.FetchRequestData>fetchRequestMap=prepareFetchRequests();
for (Map.Entry<Node, FetchSessionHandler.FetchRequestData>entry : fetchRequestMap.entrySet()) {
finalNodefetchTarget=entry.getKey();
finalFetchSessionHandler.FetchRequestDatadata=entry.get创建Value();
// todo:创建获取数据的请求finalFetchRequest.Builderrequest=FetchRequest.Builder                    .forConsumer(this.maxWaitMs, this.minBytes, data.toSend())
                    .isolationLevel(isolationLevel)
                    .setMaxBytes(this.maxBytes)
                    .metadata(data.metadata())
                    .toForget(data.toForget());
if (log.isDebugEnabled()) {
log.debug("Sending {} {} to broker {}", isolationLevel, data.toString(), fetchTarget);
            }
// todo:发送所有requestclient.send(fetchTarget, request)
// todo:发送完成后调用这个回调函数                    .addListener(newRequestFutureListener<ClientResponse>() {
@OverridepublicvoidonSuccess(ClientResponseresp) {
synchronized (Fetcher.this) {
@SuppressWarnings("unchecked")
FetchResponse<Records>response= (FetchResponse<Records>) resp.responseBody();
FetchSessionHandlerhandler=sessionHandler(fetchTarget.id());
if (handler==null) {
log.error("Unable to find FetchSessionHandler for node {}. Ignoring fetch response.",
fetchTarget.id());
return;
                                }
if (!handler.handleResponse(response)) {
return;
                                }
Set<TopicPartition>partitions=newHashSet<>(response.responseData().keySet());
FetchResponseMetricAggregatormetricAggregator=newFetchResponseMetricAggregator(sensors, partitions);
for (Map.Entry<TopicPartition, FetchResponse.PartitionData<Records>>entry : response.responseData().entrySet()) {
TopicPartitionpartition=entry.getKey();
longfetchOffset=data.sessionPartitions().get(partition).fetchOffset;
FetchResponse.PartitionData<Records>fetchData=entry.getValue();
log.debug("Fetch {} at offset {} for partition {} returned fetch data {}",
isolationLevel, fetchOffset, partition, fetchData);
completedFetches.add(newCompletedFetch(partition, fetchOffset, fetchData, metricAggregator,
resp.requestHeader().apiVersion()));
                                }
sensors.fetchLatency.record(resp.requestLatencyMs());
                            }
                        }
// todo:调用异常时走这个函数,这个函数就调用了handleError方法@OverridepublicvoidonFailure(RuntimeExceptione) {
synchronized (Fetcher.this) {
FetchSessionHandlerhandler=sessionHandler(fetchTarget.id());
if (handler!=null) {
handler.handleError(e);
                                }
                            }
                        }
                    });
        }

从源码中发现,在创建完FetchRequest之后,如果出现异常就会回调onFailure,这个函数就调用了handleError方法。

所以这个异常就是在获取请求时发生了网络抖动,造成日志中的错误。


如有分析错误,欢迎指正

拜了个拜

目录
相关文章
|
1月前
|
消息中间件 关系型数据库 MySQL
大数据-117 - Flink DataStream Sink 案例:写出到MySQL、写出到Kafka
大数据-117 - Flink DataStream Sink 案例:写出到MySQL、写出到Kafka
134 0
|
1月前
|
消息中间件 Java Kafka
Flink-07 Flink Java 3分钟上手 滚动窗口 事件驱动 Kafka TumblingWindow GlobalWindow CountWindow
Flink-07 Flink Java 3分钟上手 滚动窗口 事件驱动 Kafka TumblingWindow GlobalWindow CountWindow
36 7
|
1月前
|
消息中间件 NoSQL Kafka
Flink-10 Flink Java 3分钟上手 Docker容器化部署 JobManager TaskManager Kafka Redis Dockerfile docker-compose
Flink-10 Flink Java 3分钟上手 Docker容器化部署 JobManager TaskManager Kafka Redis Dockerfile docker-compose
39 4
|
1月前
|
消息中间件 NoSQL Kafka
大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
130 0
|
1月前
|
消息中间件 资源调度 大数据
大数据-112 Flink DataStreamAPI 程序输入源 DataSource 基于文件、集合、Kafka连接器
大数据-112 Flink DataStreamAPI 程序输入源 DataSource 基于文件、集合、Kafka连接器
41 0
|
2月前
|
运维 数据处理 数据安全/隐私保护
阿里云实时计算Flink版测评报告
该测评报告详细介绍了阿里云实时计算Flink版在用户行为分析与标签画像中的应用实践,展示了其毫秒级的数据处理能力和高效的开发流程。报告还全面评测了该服务在稳定性、性能、开发运维及安全性方面的卓越表现,并对比自建Flink集群的优势。最后,报告评估了其成本效益,强调了其灵活扩展性和高投资回报率,适合各类实时数据处理需求。
|
4月前
|
存储 监控 大数据
阿里云实时计算Flink在多行业的应用和实践
本文整理自 Flink Forward Asia 2023 中闭门会的分享。主要分享实时计算在各行业的应用实践,对回归实时计算的重点场景进行介绍以及企业如何使用实时计算技术,并且提供一些在技术架构上的参考建议。
821 7
阿里云实时计算Flink在多行业的应用和实践
|
16天前
|
存储 分布式计算 流计算
实时计算 Flash – 兼容 Flink 的新一代向量化流计算引擎
本文介绍了阿里云开源大数据团队在实时计算领域的最新成果——向量化流计算引擎Flash。文章主要内容包括:Apache Flink 成为业界流计算标准、Flash 核心技术解读、性能测试数据以及在阿里巴巴集团的落地效果。Flash 是一款完全兼容 Apache Flink 的新一代流计算引擎,通过向量化技术和 C++ 实现,大幅提升了性能和成本效益。
695 10
实时计算 Flash – 兼容 Flink 的新一代向量化流计算引擎
|
3月前
|
SQL 消息中间件 Kafka
实时计算 Flink版产品使用问题之如何在EMR-Flink的Flink SOL中针对source表单独设置并行度
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
13天前
|
SQL 运维 数据可视化
阿里云实时计算Flink版产品体验测评
阿里云实时计算Flink基于Apache Flink构建,提供一站式实时大数据分析平台,支持端到端亚秒级实时数据分析,适用于实时大屏、实时报表、实时ETL和风控监测等场景,具备高性价比、开发效率、运维管理和企业安全等优势。

热门文章

最新文章