你好。我有一个接kafka 写入tidb的任务 为什么会启动2个yarn任务去运行呢? 我是先用datastream 接入kafka。然后转成table sql写入到tidb 2个job name 一个叫Env.execute配置的名字 一个是叫insert 写入tidb的sql语句名字 *来自志愿者整理的flink邮件归档
应该说 SQL 的 update 会在底层也 call 一次 env.execute
如果你配的是所谓的 detach 模式,是有这种可能的。这个是实现问题,你可以先贴一下代码,然后描述你要的行为,看下可以怎么写*来自志愿者整理的flink
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。