问题一:Flinkcdc3.0支持MySQLcdc同步到另一个MySQL吗?
Flinkcdc3.0支持MySQLcdc同步到另一个MySQL吗?
参考答案:
不支持呀
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/639663
问题二:flinkcdc initial方式启动,如何拿到全量阶段采集完成的时间点?
flinkcdc initial方式启动,如何拿到全量阶段采集完成的时间点?
参考答案:
Flink UI:
在 Flink 的 Web UI 中,您可以查看每个 Task 的状态和完成时间。
选择您的 Flink CDC 作业,查看 JobManager 和 TaskManager 的界面。
在 TaskManager 的界面上,您可以找到每个 Task 的状态和完成时间,这可能包括全量数据采集的完成时间。
Checkpoint 状态:
如果您的 Flink CDC 作业启用了 Checkpointing,您可以查看 Checkpoint 状态来获取全量数据采集完成的时间点。
在 Flink UI 的 Checkpoint 界面上,您可以查看每个 Checkpoint 的状态和完成时间。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/621323
问题三:flinkcdc datastream模式多个表并写入到iceberg中,这个应该怎么实现呢 ?
flinkcdc datastream模式想实现同时读取oracle多个表并写入到iceberg中,这个应该怎么实现呢 ?
参考答案:
Flink CDC DataStream API 允许你从不同的数据库表中读取数据流,并可以写入到各种sink中,包括 Apache Iceberg。以下是实现从Oracle数据库读取多个表并将数据写入到Iceberg表的基本步骤:
添加依赖:确保你的项目中包含了Flink CDC Connector和Iceberg Connector的依赖。
配置源表:定义你想要读取的Oracle表。你可以使用TableSchema来定义表的结构。
创建Flink CDC Source:使用StreamExecutionEnvironment创建一个Flink CDC Source,指定源表和相关配置。
转换数据:根据需要转换读取的数据流。这一步是可选的,取决于你是否需要对数据进行过滤或转换。
创建Iceberg Sink:配置并创建一个Iceberg Sink,指定目标Iceberg表的配置。
写入数据:使用addSink方法将数据流写入到Iceberg。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/657830
问题四:Flink做了一个测试,怎么连不上Clickhouse ?clickhouse 是自建的。
Flink做了一个测试,怎么连不上Clickhouse ?clickhouse 是自建的。
参考答案:
我看报错原因是连接超时,是不是集群或者单节点有问题,导致连不上,由于您是自建的,所以大概率是网络连通的问题,您看看这个文档呢
https://help.aliyun.com/zh/flink/support/faq-about-network-connectivity?spm=a2c4g.11186623.0.i68
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/622003
问题五:Flink综合判断这个任务资源分配是否合理并给出建议?
Flink现在市面上或者大家公司内部有没有那种智能分析调优工具 比如检查任务状态大小 tm slot数量 内存分配大小 综合判断这个任务资源分配是否合理并给出建议?
参考答案:
目前阿里云vvr有
关于本问题的更多回答可点击进行查看: