flink消费一个kafka主题,比如里面有一个字段分为a,b,c,d......,现在有一个需求就是要过滤出字段是a的数据,进行后续操作。写完这个任务提交了过后,过段时间又需要过滤出字段b进行后续操作,后续的操作都是一样的,现在我就要为它在开发一个任务,在提交一次,数据量都不大。但是每提交一次都会耗费资源。以后说不定还会要过滤c,d,e....有什么好办法解决这个问题吗
*来自志愿者整理的flink邮件归档
如果你说的是对于固定的字段,每次需要过滤出来的值不一样,可以考虑维表 join。维表里保存的就是你需要过滤出来的值,这样每次只要更新维表即可。
如果你说的是每次要选择不同的字段,可能只能通过 udtf 来完成这个需求。udtf 里通过网络等方式访问外部资源来判断现在需要过滤的是哪些字段的哪些值。*来自志愿者整理的FLINK邮件归档
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。