Apache Flink 1.10中使用 Python UDF的方式有几种以及正确使用方式是什么?

Apache Flink 1.10中使用 Python UDF的方式有几种以及正确使用方式是什么?

展开
收起
Lee_tianbai 2020-12-30 14:31:52 747 分享
分享
版权
举报
1 条回答
写回答
取消 提交回答
  • 定义完 UDF 我们应该怎样使用呢? Apache Flink 1.10 中提供了 2 种 Decorators,如下: ● Decorators - udf(), e.g. :

    udf(lambda i, j: (hash(i) + hash(j)) / 2,
     [for input types], [for result types])
    
    Decorators - @udf, e.g. :
    @udf(input_types=..., result_type=...)
     def hash_code_mean(…):
     return …
    

    然后在使用之前进行注册,如下: st_env.register_function("hash_code", hash_code_mean) 接下来就可以在 Table API/SQL 中进行使用了,如下:

    my_table.select("hash_code_mean(a, b)").insert_into("Results")
    
    2020-12-30 14:34:20 举报
    赞同 评论

    评论

    全部评论 (0)

    登录后可评论

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

收录在圈子:
实时计算 Flink 版(Alibaba Cloud Realtime Compute for Apache Flink,Powered by Ververica)是阿里云基于 Apache Flink 构建的企业级、高性能实时大数据处理系统,由 Apache Flink 创始团队官方出品,拥有全球统一商业化品牌,完全兼容开源 Flink API,提供丰富的企业级增值功能。
还有其他疑问?
咨询AI助理