开发者社区> 问答> 正文

flink的一个场景问题

场景:我对一批kafa中的数据使用flink进行消费,然后通过process算子进行处理加工,将其写更新到三方的数据存储介质中 问题:在上述的过程中并没有sink的阶段,直接在process中处理完成后写入到存储介质里了,sink没办法只能写一个print() ,这种场景有更优的解决方案么?

*来自志愿者整理的flink邮件归档

展开
收起
moonlightdisco 2021-12-08 09:42:51 633 0
1 条回答
写回答
取消 提交回答
  • Hi!

    一般将结果写到外部系统是通过 sink 节点。如果 Flink 没有内置你需要的 connector,可以考虑继承并实现 SinkFunction(很基本的 sink)或 RichSinkFunction(带 checkpoint 等功能)等自定义 sink,然后通过 DataStream#addSink 方法把这个 sink 加在 datastream 的末尾。*来自志愿者整理的flink邮件归档

    2021-12-08 10:05:26
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Flink CDC Meetup PPT - 龚中强 立即下载
Flink CDC Meetup PPT - 王赫 立即下载
Flink CDC Meetup PPT - 覃立辉 立即下载