实时计算 Flink版产品使用合集之从MySQL到Flink 1.16.2 Flink-SQL的数据同步工作出现了一个异常如何解决

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介: 实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。

问题一:Flink这些完成的任务怎么删除呢?


Flink这些完成的任务怎么删除呢?


参考回答:

在Flink中,一旦任务完成,它就会被标记为已完成,并存储在任务历史中。这些已完成的任务不会被自动删除,因为它们可以被用于故障恢复、审计等用途。

如果你想手动删除这些已完成的任务,你需要在Flink的Web UI中操作。以下是步骤:

  1. 打开Flink的Web UI,找到你想要删除的任务。
  2. 在任务详情页面,点击“更多”按钮,然后选择“删除任务”。
  3. 在弹出的对话框中,确认你的选择,然后点击“确定”。


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/570350


问题二:使用flink cdc 实时同步oracle 到 doris,必须开启数据库的增量日志设置吗?


目前在学习 flink cdc 实时同步技术,在 mysql 中测试通过。在 oracle 测试过程中,发现只能同步oracle 的表结构,数据无法同步到 doris,也看不到相关的错误日志。

查看相关问题,文章说必须开启 oralce的supplemental_log_data_min,请问是否这个原因?公司环境的的 oracle 确实只开启了归档日志,supplemental_log_data_min确实没有开启。

另外如果开启,是否开启数据库级别的就可以。

另外有个疑问,没有开启supplemental_log_data_min的情况下,使用 ogg 同步是不是也可能会出现同步的数据偏差。


参考回答:

是的,Oracle的CDC(Change Data Capture)功能需要Supplemental Logging和Archive Logging同时开启才能正常工作。如果你的Oracle实例只开启了Archive Logging,那么Flink CDC可能只能捕获到表的DDL变更,而无法捕获到实际的DML变更。

关于Supplemental Logging,它需要在表级别开启,而不是在数据库级别。你可以通过以下SQL语句来检查某个表是否已经开启了Supplemental Logging:

SELECT * FROM cat
WHERE table_name = 'your_table_name'
AND log_mode = 'SUPPLEMENTAL';

如果返回结果为空,那么说明该表未开启Supplemental Logging。

至于OGG,它同样需要Supplemental Logging和Archive Logging同时开启才能正常工作。如果没有开启Supplemental Logging,OGG可能也无法正确捕获到数据的变更。

总的来说,无论是Flink CDC还是OGG,都需要Oracle的Supplemental Logging和Archive Logging同时开启才能正常工作。


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/570254


问题三:Flink CDC数据已经同步,但flink 作业还有异常?


Flink CDC从 mysql 8 到 flink 1.16.2 的 flink-sql 里,数据已经同步,但flink 作业还有异常。java.lang.RuntimeException: One or more fetchers have encountered exception

at org.apache.flink.connector.base.source.reader.fetcher.SplitFetcherManager.checkErrors(SplitFetcherManager.java:225)

at org.apache.flink.connector.base.source.reader.SourceReaderBase.getNextFetch(SourceReaderBase.java:169)

at org.apache.flink.connector.base.source.reader.SourceReaderBase.pollNext(SourceReaderBase.java:130)

at org.apache.flink.streaming.api.operators.SourceOperator.emitNext(SourceOperator.java:385)

at org.apache.flink.streaming.runtime.io.StreamTaskSourceInput.emitNext(StreamTaskSourceInput.java:68)

at org.apache.flink.streaming.runtime.io.StreamOneInputProcessor.processInput(StreamOneInputProcessor.java:65)

at org.apache.flink.streaming.runtime.tasks.StreamTask.processInput(StreamTask.java:545)

at org.apache.flink.streaming.runtime.tasks.mailbox.MailboxProcessor.runMailboxLoop(MailboxProcessor.java:231)

at org.apache.flink.streaming.runtime.tasks.StreamTask.runMailboxLoop(StreamTask.java:836)

at org.apache.flink.streaming.runtime.tasks.StreamTask.invoke(StreamTask.java:785)

at org.apache.flink.runtime.taskmanager.Task.runWithSystemExitMonitoring(Task.java:935)

at org.apache.flink.runtime.taskmanager.Task.restoreAndInvoke(Task.java:914)

at org.apache.flink.runtime.taskmanager.Task.doRun(Task.java:728)

at org.apache.flink.runtime.taskmanager.Task.run(Task.java:550)

at java.lang.Thread.run(Thread.java:748)

Caused by: java.lang.RuntimeException: SplitFetcher thread 0 received unexpected exception while polling the records

at org.apache.flink.connector.base.source.reader.fetcher.SplitFetcher.runOnce(SplitFetcher.java:150)

at org.apache.flink.connector.base.source.reader.fetcher.SplitFetcher.run(SplitFetcher.java:105)

at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)

at java.util.concurrent.FutureTask.run(FutureTask.java:266)

at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)

at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)

... 1 more

Caused by: org.apache.flink.util.FlinkRuntimeException: Read split MySqlSnapshotSplit{tableId=test.orders, splitId='test.orders:0', splitKeyType=[order_id INT NOT NULL], splitStart=null, splitEnd=null, highWatermark=null} error due to org.apache.flink.util.FlinkRuntimeException: Cannot read the binlog filename and position via 'SHOW MASTER STATUS'. Make sure your server is correctly configured.

at com.ververica.cdc.connectors.mysql.debezium.reader.SnapshotSplitReader.checkReadException(SnapshotSplitReader.java:306)

at com.ververica.cdc.connectors.mysql.debezium.reader.SnapshotSplitReader.pollSplitRecords(SnapshotSplitReader.java:253)

at com.ververica.cdc.connectors.mysql.source.reader.MySqlSplitReader.fetch(MySqlSplitReader.java:76)

at org.apache.flink.connector.base.source.reader.fetcher.FetchTask.run(FetchTask.java:58)

at org.apache.flink.connector.base.source.reader.fetcher.SplitFetcher.runOnce(SplitFetcher.java:142)

... 6 more

Caused by: io.debezium.DebeziumException: org.apache.flink.util.FlinkRuntimeException: Cannot read the binlog filename and position via 'SHOW MASTER STATUS'. Make sure your server is correctly configured

at com.ververica.cdc.connectors.mysql.debezium.task.MySqlSnapshotSplitReadTask.execute(MySqlSnapshotSplitReadTask.java:120)

at com.ververica.cdc.connectors.mysql.debezium.reader.SnapshotSplitReader.lambdasubmitSplitsubmitSplitsubmitSplit0(SnapshotSplitReader.java:130)

... 5 more

Caused by: org.apache.flink.util.FlinkRuntimeException: Cannot read the binlog filename and position via 'SHOW MASTER STATUS'. Make sure your server is correctly configured

at com.ververica.cdc.connectors.mysql.debezium.DebeziumUtils.currentBinlogOffset(DebeziumUtils.java:130)

at com.ververica.cdc.connectors.mysql.debezium.task.MySqlSnapshotSplitReadTask.doExecute(MySqlSnapshotSplitReadTask.java:143)

at com.ververica.cdc.connectors.mysql.debezium.task.MySqlSnapshotSplitReadTask.execute(MySqlSnapshotSplitReadTask.java:115)

... 6 more?


参考回答:

这个异常是由于Flink无法通过'SHOW MASTER STATUS'读取binlog文件名和位置。请确保您的MySQL服务器已正确配置。您可以尝试以下方法来解决这个问题:

  1. 确保MySQL服务器已启用二进制日志(binlog)。可以通过以下命令检查:
SHOW VARIABLES LIKE 'log_bin';

如果结果为OFF,请尝试将其设置为ON:

SET GLOBAL log_bin = ON;
  1. 确保MySQL用户具有足够的权限来访问二进制日志。可以通过以下命令授权:
GRANT REPLICATION SLAVE ON *.* TO 'your_mysql_user'@'your_mysql_host';
  1. 在Flink SQL中,确保使用正确的用户名、密码和主机名连接到MySQL源。例如:
CREATE TABLE your_table (
    ...
) WITH (
    'connector' = 'mysql-cdc',
    'hostname' = 'your_mysql_host',
    'port' = 'your_mysql_port',
    'username' = 'your_mysql_user',
    'password' = 'your_mysql_password',
    ...
);
  1. 如果问题仍然存在,请检查MySQL服务器的配置文件(如my.cnf或my.ini),确保log_bin设置正确,并重启MySQL服务器。


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/570246


问题四:Flink CDC有没有比较完整的学习文档?


Flink CDC有没有比较完整的学习文档?


参考回答:

Flink CDC 的学习文档相对丰富,你可以从多个途径获取学习资料。首先,你需要确保已经安装了 Apache Flink,并且具备基本的 Flink 知识和技能。然后,可以到 Flink 官方网站或者 GitHub 上下载并安装最新版本的 FlinkCDC 插件。

在了解基础操作后,你可以查看一些更深入的教程和介绍。例如"快速上手"部分将引导你基于 Flink CDC 构建 MySQL 和 Postgres 的 Streaming ETL;而"深入讲解了最新发布的 Flink CDC 2.0.0 版本带来的核心特性"则可以让你了解到 Flink CDC 2.0.0 的主要新功能和改进。此外,“Flink CDC 概念、应用场景、数据同步,用于备份,容灾”等内容可以帮助你理解 Flink CDC 在实际工作中的使用场景。

同时,你也可以查阅相关视频教程和博客文章来进一步加深理解。最后,实践是最好的老师,你可以尝试自己搭建环境并实际操作一下,这将有助于你更好地理解和掌握 Flink CDC。


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/570243


问题五:Flink CDC会出现分配和之前任务相同的是吗?


Flink CDC任务指定了server-id后面在启动别的cdc任务但是没有指定server-id可能会导致新的任务去随机分配server-id的时候,会出现分配和之前任务相同的是吗?


参考回答:

别写5400-6400之间的就行,建议是必须指定serverid


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/570242

相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
Linux入门到精通
本套课程是从入门开始的Linux学习课程,适合初学者阅读。由浅入深案例丰富,通俗易懂。主要涉及基础的系统操作以及工作中常用的各种服务软件的应用、部署和优化。即使是零基础的学员,只要能够坚持把所有章节都学完,也一定会受益匪浅。
相关文章
|
25天前
|
SQL 关系型数据库 MySQL
【MySQL】SQL分析的几种方法
以上就是SQL分析的几种方法。需要注意的是,这些方法并不是孤立的,而是相互关联的。在实际的SQL分析中,我们通常需要结合使用这些方法,才能找出最佳的优化策略。同时,SQL分析也需要对数据库管理系统,数据,业务需求有深入的理解,这需要时间和经验的积累。
49 12
|
1月前
|
SQL 关系型数据库 MySQL
大数据新视界--大数据大厂之MySQL数据库课程设计:MySQL 数据库 SQL 语句调优方法详解(2-1)
本文深入介绍 MySQL 数据库 SQL 语句调优方法。涵盖分析查询执行计划,如使用 EXPLAIN 命令及理解关键指标;优化查询语句结构,包括避免子查询、减少函数使用、合理用索引列及避免 “OR”。还介绍了索引类型知识,如 B 树索引、哈希索引等。结合与 MySQL 数据库课程设计相关文章,强调 SQL 语句调优重要性。为提升数据库性能提供实用方法,适合数据库管理员和开发人员。
|
1月前
|
关系型数据库 MySQL 大数据
大数据新视界--大数据大厂之MySQL 数据库课程设计:MySQL 数据库 SQL 语句调优的进阶策略与实际案例(2-2)
本文延续前篇,深入探讨 MySQL 数据库 SQL 语句调优进阶策略。包括优化索引使用,介绍多种索引类型及避免索引失效等;调整数据库参数,如缓冲池、连接数和日志参数;还有分区表、垂直拆分等其他优化方法。通过实际案例分析展示调优效果。回顾与数据库课程设计相关文章,强调全面认识 MySQL 数据库重要性。为读者提供综合调优指导,确保数据库高效运行。
|
2月前
|
SQL Oracle 关系型数据库
【YashanDB知识库】如何将mysql含有group by的SQL转换成崖山支持的SQL
本文探讨了在YashanDB(崖山数据库)中执行某些SQL语句时出现的报错问题,对比了MySQL的成功执行结果。问题源于SQL-92标准对非聚合列的严格限制,要求这些列必须出现在GROUP BY子句中,而SQL:1999及更高版本允许非聚合列直接出现在选择列中。YashanDB和Oracle遵循SQL-92标准,因此会报错。文章提供了两种解决方法:使用聚合函数处理非聚合列,或将GROUP BY与ORDER BY拆分为两层查询。最后总结指出,SQL-92标准更为严谨合理,建议开发者遵循此规范以避免潜在问题。
|
8月前
|
运维 数据处理 数据安全/隐私保护
阿里云实时计算Flink版测评报告
该测评报告详细介绍了阿里云实时计算Flink版在用户行为分析与标签画像中的应用实践,展示了其毫秒级的数据处理能力和高效的开发流程。报告还全面评测了该服务在稳定性、性能、开发运维及安全性方面的卓越表现,并对比自建Flink集群的优势。最后,报告评估了其成本效益,强调了其灵活扩展性和高投资回报率,适合各类实时数据处理需求。
|
6月前
|
存储 分布式计算 流计算
实时计算 Flash – 兼容 Flink 的新一代向量化流计算引擎
本文介绍了阿里云开源大数据团队在实时计算领域的最新成果——向量化流计算引擎Flash。文章主要内容包括:Apache Flink 成为业界流计算标准、Flash 核心技术解读、性能测试数据以及在阿里巴巴集团的落地效果。Flash 是一款完全兼容 Apache Flink 的新一代流计算引擎,通过向量化技术和 C++ 实现,大幅提升了性能和成本效益。
2507 73
实时计算 Flash – 兼容 Flink 的新一代向量化流计算引擎
zdl
|
6月前
|
消息中间件 运维 大数据
大数据实时计算产品的对比测评:实时计算Flink版 VS 自建Flink集群
本文介绍了实时计算Flink版与自建Flink集群的对比,涵盖部署成本、性能表现、易用性和企业级能力等方面。实时计算Flink版作为全托管服务,显著降低了运维成本,提供了强大的集成能力和弹性扩展,特别适合中小型团队和业务波动大的场景。文中还提出了改进建议,并探讨了与其他产品的联动可能性。总结指出,实时计算Flink版在简化运维、降低成本和提升易用性方面表现出色,是大数据实时计算的优选方案。
zdl
289 56
|
4月前
|
消息中间件 关系型数据库 MySQL
Flink CDC 在阿里云实时计算Flink版的云上实践
本文整理自阿里云高级开发工程师阮航在Flink Forward Asia 2024的分享,重点介绍了Flink CDC与实时计算Flink的集成、CDC YAML的核心功能及应用场景。主要内容包括:Flink CDC的发展及其在流批数据处理中的作用;CDC YAML支持的同步链路、Transform和Route功能、丰富的监控指标;典型应用场景如整库同步、Binlog原始数据同步、分库分表同步等;并通过两个Demo展示了MySQL整库同步到Paimon和Binlog同步到Kafka的过程。最后,介绍了未来规划,如脏数据处理、数据限流及扩展数据源支持。
330 0
Flink CDC 在阿里云实时计算Flink版的云上实践
|
5月前
|
存储 关系型数据库 BI
实时计算UniFlow:Flink+Paimon构建流批一体实时湖仓
实时计算架构中,传统湖仓架构在数据流量管控和应用场景支持上表现良好,但在实际运营中常忽略细节,导致新问题。为解决这些问题,提出了流批一体的实时计算湖仓架构——UniFlow。该架构通过统一的流批计算引擎、存储格式(如Paimon)和Flink CDC工具,简化开发流程,降低成本,并确保数据一致性和实时性。UniFlow还引入了Flink Materialized Table,实现了声明式ETL,优化了调度和执行模式,使用户能灵活调整新鲜度与成本。最终,UniFlow不仅提高了开发和运维效率,还提供了更实时的数据支持,满足业务决策需求。
|
9月前
|
SQL 消息中间件 Kafka
实时计算 Flink版产品使用问题之如何在EMR-Flink的Flink SOL中针对source表单独设置并行度
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。

相关产品

  • 实时计算 Flink版