开发者社区> 问答> 正文

flink-1.11 KafkaDynamicTableSouce groupBy 结果怎样发送到

INSERT INTO kafka_dws_artemis_out_order select warehouse_id, count(*)

from kafka_ods_artemis_out_order group by warehouse_id;

[ERROR] Could not execute SQL statement. Reason:

org.apache.flink.table.api.TableException: Table sink

'myhive.wanglei.kafka_dws_artemis_out_order' doesn't support consuming

update changes which is produced by node

GroupAggregate(groupBy=[warehouse_id], select=[warehouse_id, COUNT(*) AS

EXPR$1])

在 Flink-1.10 中可以更改 KafkaTableSinkBase 让它 implements RetractStream 实现。

我看现在 Flink-1.11 中是用了 KafkaDynamicSource, KafkaDynamicSink,这样怎样改动才能让

GroupBy 的结果也发送到 Kafka 呢?

*来自志愿者整理的flink邮件归档

展开
收起
小阿矿 2021-12-06 16:07:47 972 0
1 条回答
写回答
取消 提交回答
  • DynamicTableSink有一个方法是getChangelogMode,可以通过这个方法来指定这个sink接收什么种类的数据*来自志愿者整理的flink邮件归档

    2021-12-07 10:03:03
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Flink CDC Meetup PPT - 龚中强 立即下载
Flink CDC Meetup PPT - 王赫 立即下载
Flink CDC Meetup PPT - 覃立辉 立即下载