开发者社区> 问答> 正文

flink sql 1.11 kafka cdc与holo sink有一些问题

flink sql 1.11 创建kafka source 表 ,kafka数据是canal采集的mysql 信息,'format' = 'canal-json', 问题是 1,在source表中只能有与msyql对应的schema信息么,(也就是data[{}]里面的字段)能不能获取table,ts这种字段的值? 2,对于一个topic中有多张mysql binlog信息的表,kafka source表是如何区分的,依赖于schema的不同吗? 3,这种source表,与holo sink 表结合使用,遇到delete类型的数据会在holo中删除该条数据吗?'ignoreDelete' = 'false' *来自志愿者整理的flink邮件归档

展开
收起
小阿怪 2021-12-06 12:12:20 843 0
1 条回答
写回答
取消 提交回答
    1. 目前不支持。 已有 issue 跟进支持 https://issues.apache.org/jira/browse/FLINK-20385

    2. 配上 canal-json.table.include = 't1' 来过滤表。暂不支持正则过滤。

    3. 会*来自志愿者整理的flink邮件归档

    2021-12-06 12:56:03
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Flink CDC Meetup PPT - 龚中强 立即下载
Flink CDC Meetup PPT - 王赫 立即下载
Flink CDC Meetup PPT - 覃立辉 立即下载