1.定义ddl解析array字段时候,假如select 那个字段可以解析出。2.当我去定义自己函数时候,会出现null,flink直接跳过解析array那个函数了吗? CREATE TABLE sourceTable ( event_time_line array<ROW ( rule_name
VARCHAR, count
VARCHAR )> ) WITH ( 'connector.type' = 'kafka', 'connector.version' = 'universal', 'connector.startup-mode' = 'earliest-offset', 'connector.topic' = 'topic_test_1', 'connector.properties.zookeeper.connect' = 'localhost:2181', 'connector.properties.bootstrap.servers' = 'localhost:9092', 'update-mode' = 'append', 'format.type' = 'json', 'format.derive-schema' = 'true' ); --可以查出数据 select event_time_line from sourceTable ; --当我定义自己函数时候,参数value没有传过去,但是数组的size长度过去了 select type_change(event_time_line) from sourceTable ;
public class TypeChange extends ScalarFunction { /** * 为null,但是数组有长度 * @param rows * @return */ public String eval(Row [] rows){ return JSONObject.toJSONString(rows); }
}*来自志愿者整理的FLINK邮件归档
你的UDF应该要显示指定一下参数的类型,覆盖ScalarFunction的getParameterTypes方法。 因为UDF对于复杂类型的推导能力有限,这种复杂类型可以显示指定参数类型。*来自志愿者整理的FLINK邮件归档
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。