问题一:Flink CDC官方文档1.2.7就有指定虚拟列 __op,但是1.2.8应该怎么弄?
Flink CDC官方文档1.2.7就有指定虚拟列 __op,但是1.2.8应该怎么弄?
参考回答:
应该差不多把,一个小版本不可能变化太多
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/572346
问题二:Flink CDC在flink-sql中不知道应该怎样对应了?
Flink CDC对使用编程的方式虚拟列是json数据加一个字段__op,但是在flink-sql中不知道应该怎样对应了,我flink-sql,获取到kafka的数据
参考回答:
在Flink SQL中,您可以使用JSON_OBJECT
函数来创建一个包含虚拟列的JSON对象。以下是一个示例:
SELECT JSON_OBJECT( 'id', id, 'name', name, 'value', value, '__op', 'insert' -- 这里添加虚拟列__op,值为'insert' ) AS json_data FROM kafka_source;
在这个示例中,我们从Kafka源表中选择id
、name
和value
列,并使用JSON_OBJECT
函数创建一个包含虚拟列__op
的JSON对象。您可以根据需要修改这个示例,以适应您的具体需求。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/572345
问题三:问个问题,flink cdc2.4.1 postgresql 不支持 这个模式吗?
问个问题,flink cdc2.4.1 postgresql 不支持 StartupOptions.timestamp() 这个模式吗?
参考回答:
yes,只支持全量和最新‘
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/567023
问题四:Flink CDC 2.4读取oracle11c 必须要捕获所有表吗?
Flink CDC 2.4读取oracle11c 必须要捕获所有表吗?
参考回答:
在使用Flink CDC 2.4读取Oracle 11c时,并不需要捕获所有表。您只需要针对那些需要进行数据同步的表进行配置和操作即可。为了实现Flink CDC实时同步Oracle,首先需要确保Oracle中相关表已开启归档日志和补充日志,因为Flink CDC基于Debezium的LogMiner实现,LogMiner需要使用Oracle的归档日志和补充日志来获取变更数据。然后,在Flink程序中创建Oracle CDC连接,配置需要捕获的表信息即可。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/572342
问题五:请教下Flink CDC,这是jobmanager oom还是task oom?
请教下Flink CDC,这是jobmanager oom还是task oom?
参考回答:
jobmanager
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/572341