flink cdc 同步问题之报错org.apache.flink.util.SerializedThrowable:如何解决

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介: Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。

问题一:Flink CDC里3.0的schema evolution有设计文档么?


Flink CDC里3.0的schema evolution有设计文档么?操作系统:CentOS7.9

Flink版本:1.16.2

Flink CDC版本:2.4.2

Source端:TiDB v7.5

Sink端:Oracle 19c

使用FlinkSql配置Flink CDC进行数据同步

同步结束后,两边数量一致,但是个别字段不一致,甚至某一个字段Soruce端没有空值,但是Sink端全是空值。SOURCE端和SINK端都是字符类型或者日期类型,但是SOURCE端映射成FLINKSQL的类型是VARCHAR,SINK端映射的类型是STRING,读取是空值。


参考回答:

1:使用flinksql 测试数据写到oracle是否正常

2:flinksql读取tidb是否数据正常

3:以上都没有问题 大概率就是数据类型不兼容或者艾特群里玩oracle的。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/596364?spm=a2c6h.13066369.question.6.283f3f336Hqvrt



问题二:现在flink cdc 支持从mysql 到oceanbase吗?


现在flink cdc 支持从mysql 到oceanbase吗?


参考回答:

现在flink cdc还不支持从mysql 到oceanbase的全量或增量数据的同步


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/596363?spm=a2c6h.13066369.question.7.283f3f33NS7xrG



问题三:Flink CDC里如果上游没办法限制数据流量 sink doris有办法限制写入流量吗 ?


Flink CDC里如果上游没办法限制数据流量 sink doris有办法限制写入流量吗 ?现在遇到情况 sink doris Records Sent几百万了 但是doris里一条数据没有 怎么办?


参考回答:

在Apache Flink CDC中,如果上游无法限制数据流量,确实可以对Flink Sink Doris的部分进行流量控制,以避免Doris端因为写入速率过高而无法处理。以下是一些可能的解决方案:

Flink侧限流:

背压 (Backpressure):Flink本身就具备背压机制,可以通过自动调节源和sink之间的数据传输速率,防止数据积压。当sink端处理速度较慢时,Flink会自动减慢数据读取速度,以适应下游处理能力。

Sink Rate Limiting: 可以通过Flink Sink Connector的参数或者自定义SinkFunction实现限流逻辑,比如控制每次批量写入的数据量或延时。

Doris侧优化:

分区策略:合理设计Doris表的分区策略,可以分散写入压力,提高并发写入性能。

Batch Write:确保Flink CDC向Doris写入数据时使用批量写入模式,这样可以减少网络交互次数,提高写入效率。

Doris Load Balancing:如果Doris是集群部署,确保负载均衡配置得当,充分利用集群资源。

中间缓冲与错误处理:

Checkpoints & Retries:检查Flink作业的Checkpoint配置,确保在失败后能够通过Checkpoint恢复并重试写入。

Buffer Size & Flush Policy:设置合理的缓冲区大小和flush策略,避免一次性写入太多数据导致Doris端无法处理。

对于你提到的Records Sent很多但Doris中没有数据的问题,首先需要排查几个关键点:

Flink CDC配置:确认Sink到Doris的配置是否正确,包括连接参数、表名等。

错误处理与告警:检查Flink任务的日志,查看是否有错误信息,例如网络连接错误、数据格式错误、Doris端拒绝写入等情况,并确保有完善的错误处理和告警机制。

Doris端问题排查:检查Doris的写入日志,确认是否真的没有接收到任何数据,还是因为某种原因(如DDL变更、表映射错误等)导致数据没有正确写入。

如果经过排查发现数据确实没有到达Doris端,那么可能需要调整Flink CDC任务的配置,如增加数据缓冲、限流、或者改进错误重试策略,确保数据可靠传输到Doris。同时,也要确认Doris集群的健康状况和写入能力。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/596362?spm=a2c6h.13066369.question.8.283f3f33v3o5Ly



问题四:Flink CDC里这种报错怎么解决?


Flink CDC里这种报错怎么解决?flink1.18+flink-cdc3.0。Caused by: org.apache.flink.util.SerializedThrowable: java.util.concurrent.ExecutionException: java.util.concurrent.TimeoutException: Invocation of [RemoteRpcInvocation(JobMasterOperatorEventGateway.sendRequestToCoordinator(OperatorID, SerializedValue))] at recipient [pekko.tcp://flink@172.21.48.3:6123/user/rpc/jobmanager_2] timed out. This is usually caused by: 1) Pekko failed sending the message silently, due to problems like oversized payload or serialization failures. In that case, you should find detailed error information in the logs. 2) The recipient needs more time for responding, due to problems like slow machines or network jitters. In that case, you can try to increase pekko.ask.timeout.


参考回答:

该错误表明在Flink 1.18 + flink-cdc 3.0版本中,Flink JobManager与TaskManager之间的RPC通信出现了超时问题。以下是可能的解决方法:

检查网络问题:

确保JobManager和TaskManager之间的网络连接通畅,没有防火墙、安全组规则或其他网络配置阻断了通信。

查看节点间网络延迟是否过高,如有必要优化网络环境。

增加RPC超时时间:

根据错误提示,可以尝试增加Flink的RPC超时时间。在flink-conf.yaml配置文件中增加或修改以下配置项:

pekko.ask.timeout: 30s  # 或者设置更大的超时时间,单位为秒

注意这里的配置名可能随着Flink版本的不同有所变动,具体配置项请查阅Flink 1.18版本的官方文档。

检查资源和性能问题:

确认JobManager和TaskManager有足够的CPU和内存资源,避免由于资源不足导致响应超时。

查看JobManager和TaskManager的日志,查看是否有与资源紧张、GC暂停时间过长、任务执行缓慢等相关的信息。

检查序列化问题:

如果错误原因是由于消息太大或者序列化失败引起的,日志中应有相关信息。请优化数据结构,减少序列化后的数据大小,或者检查并修复序列化问题。

任务优化:

检查并优化Flink作业的并行度、算子配置、checkpoint设置等,确保任务执行顺畅,减少RPC通信的压力。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/596361?spm=a2c6h.13066369.question.9.283f3f33kSfCyz



问题五:Flink CDC里oraclecdc 报的这个错误怎么解决?


Flink CDC里oraclecdc 报的这个错误怎么解决?java.lang.UnsupportedOperationException: setXIncludeAware is not supported on this JAXP implementation or earlier: class oracle.xml.jaxp.JXDocumentBuilderFactory


参考回答:

在Flink CDC Oracle CDC connector中遇到java.lang.UnsupportedOperationException: setXIncludeAware is not supported on this JAXP implementation or earlier: class oracle.xml.jaxp.JXDocumentBuilderFactory错误,这是因为Oracle自带的JAXP实现不支持setXIncludeAware(true)方法。

解决这个问题的办法一般有两种:

替换XML解析器实现:

由于Oracle的JAXB实现不支持setXIncludeAware,你可以尝试更换为标准的Java XML解析器实现,例如使用Apache Xerces或者其他兼容的XML解析器。在Flink CDC Oracle CDC connector的类路径中优先加载兼容的解析器实现,确保在创建DocumentBuilderFactory时使用的是兼容的类。

禁用不支持的功能:

如果Flink CDC或相关的依赖库中试图设置setXIncludeAware,并且这不是必须的功能,可以在代码层面或者配置中去除对这一特性的依赖。

由于错误发生在Oracle的特定JAXP实现上,可能需要在Flink CDC Oracle CDC connector的配置或者使用时规避这个问题。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/596360?spm=a2c6h.13066369.question.10.283f3f3368YPLm

相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
Linux入门到精通
本套课程是从入门开始的Linux学习课程,适合初学者阅读。由浅入深案例丰富,通俗易懂。主要涉及基础的系统操作以及工作中常用的各种服务软件的应用、部署和优化。即使是零基础的学员,只要能够坚持把所有章节都学完,也一定会受益匪浅。
相关文章
|
15天前
|
SQL Java API
Apache Flink 2.0-preview released
Apache Flink 社区正积极筹备 Flink 2.0 的发布,这是自 Flink 1.0 发布以来的首个重大更新。Flink 2.0 将引入多项激动人心的功能和改进,包括存算分离状态管理、物化表、批作业自适应执行等,同时也包含了一些不兼容的变更。目前提供的预览版旨在让用户提前尝试新功能并收集反馈,但不建议在生产环境中使用。
457 13
Apache Flink 2.0-preview released
|
20天前
|
存储 缓存 算法
分布式锁服务深度解析:以Apache Flink的Checkpointing机制为例
【10月更文挑战第7天】在分布式系统中,多个进程或节点可能需要同时访问和操作共享资源。为了确保数据的一致性和系统的稳定性,我们需要一种机制来协调这些进程或节点的访问,避免并发冲突和竞态条件。分布式锁服务正是为此而生的一种解决方案。它通过在网络环境中实现锁机制,确保同一时间只有一个进程或节点能够访问和操作共享资源。
44 3
|
2月前
|
SQL 消息中间件 关系型数据库
Apache Doris Flink Connector 24.0.0 版本正式发布
该版本新增了对 Flink 1.20 的支持,并支持通过 Arrow Flight SQL 高速读取 Doris 中数据。
|
25天前
|
消息中间件 关系型数据库 MySQL
大数据-117 - Flink DataStream Sink 案例:写出到MySQL、写出到Kafka
大数据-117 - Flink DataStream Sink 案例:写出到MySQL、写出到Kafka
106 0
|
2月前
|
消息中间件 资源调度 API
Apache Flink 流批融合技术介绍
本文源自阿里云高级研发工程师周云峰在Apache Asia Community OverCode 2024的分享,内容涵盖从“流批一体”到“流批融合”的演进、技术解决方案及社区进展。流批一体已在API、算子和引擎层面实现统一,但用户仍需手动配置作业模式。流批融合旨在通过动态调整优化策略,自动适应不同场景需求。文章详细介绍了如何通过量化指标(如isProcessingBacklog和isInsertOnly)实现这一目标,并展示了针对不同场景的具体优化措施。此外,还概述了社区当前进展及未来规划,包括将优化方案推向Flink社区、动态调整算子流程结构等。
368 31
Apache Flink 流批融合技术介绍
|
2月前
|
算法 API Apache
Flink CDC:新一代实时数据集成框架
本文源自阿里云实时计算团队 Apache Flink Committer 任庆盛在 Apache Asia CommunityOverCode 2024 的分享,涵盖 Flink CDC 的概念、版本历程、内部实现及社区未来规划。Flink CDC 是一种基于数据库日志的 CDC 技术实现的数据集成框架,能高效完成全量和增量数据的实时同步。自 2020 年以来,Flink CDC 经过多次迭代,已成为功能强大的实时数据集成工具,支持多种数据库和数据湖仓系统。未来将进一步扩展生态并提升稳定性。
510 1
Flink CDC:新一代实时数据集成框架
|
25天前
|
分布式计算 监控 大数据
大数据-148 Apache Kudu 从 Flink 下沉数据到 Kudu
大数据-148 Apache Kudu 从 Flink 下沉数据到 Kudu
50 1
|
2月前
|
消息中间件 canal 数据采集
Flink CDC 在货拉拉的落地与实践
陈政羽在Apache Asia Community Over Code 2024上分享了《货拉拉在Flink CDC生产实践落地》。文章介绍了货拉拉业务背景、技术选型及其在实时数据采集中的挑战与解决方案,详细阐述了Flink CDC的技术优势及在稳定性、兼容性等方面的应用成果。通过实际案例展示了Flink CDC在提升数据采集效率、降低延迟等方面的显著成效,并展望了未来发展方向。
519 14
Flink CDC 在货拉拉的落地与实践
|
24天前
|
数据挖掘 物联网 数据处理
深入探讨Apache Flink:实时数据流处理的强大框架
在数据驱动时代,企业需高效处理实时数据流。Apache Flink作为开源流处理框架,以其高性能和灵活性成为首选平台。本文详细介绍Flink的核心特性和应用场景,包括实时流处理、强大的状态管理、灵活的窗口机制及批处理兼容性。无论在实时数据分析、金融服务、物联网还是广告技术领域,Flink均展现出巨大潜力,是企业实时数据处理的理想选择。随着大数据需求增长,Flink将继续在数据处理领域发挥重要作用。
54 0
|
28天前
|
消息中间件 druid Kafka
从Apache Flink到Kafka再到Druid的实时数据传输,用于分析/决策
从Apache Flink到Kafka再到Druid的实时数据传输,用于分析/决策
55 0

相关产品

  • 实时计算 Flink版
  • 推荐镜像

    更多