使用场景如下,将kafka源表通过flink sql处理成mongodb汇表存入。按照班级进行group by,输出对应班级所有的学生数据集合。请问用flink sql自带的collect函数能实现吗?如果能的话要怎么写sql? 如果不能的话要怎么写UDAF,有例子参考吗?谢谢!
kafka源表: 班级 学号 姓名 年龄 1 20001 张三 15 2 20011 李四 16 1 20002 王五 16 2 20012 吴六 15
create table source_table ( class_no: INT, student_no: INT, name: STRING, age: INT ) with ( 'connector' = 'kafka', ... );
通过flink sql处理输出 ==>
mongodb目标表: 班级 学生信息 1 [{"student_no": 20001, "name":"张三", "age": 15}, {"student_no": 20002, "name":"王五", "age": 16}] 2 [{"student_no": 20011, "name":"李四", "age": 16}, {"student_no": 20012, "name":"吴六", "age": 15}]
create table sink_table ( class_no INT, students: ARRAY<ROW<student_no STRING, name STRING, age INT>> ) with ( 'connector' = 'mongodb', ... );*来自志愿者整理的flink
af里acc为个list,merge的时候合并,输出的时候 list拼成string即可*来自志愿者整理的flink
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。