开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Apache Flink 1.10中使用 Python UDF的方式有几种以及正确使用方式是什么?

Apache Flink 1.10中使用 Python UDF的方式有几种以及正确使用方式是什么?

展开
收起
Lee_tianbai 2020-12-30 14:31:52 735 0
1 条回答
写回答
取消 提交回答
  • 定义完 UDF 我们应该怎样使用呢? Apache Flink 1.10 中提供了 2 种 Decorators,如下: ● Decorators - udf(), e.g. :

    udf(lambda i, j: (hash(i) + hash(j)) / 2,
     [for input types], [for result types])
    
    Decorators - @udf, e.g. :
    @udf(input_types=..., result_type=...)
     def hash_code_mean(…):
     return …
    

    然后在使用之前进行注册,如下: st_env.register_function("hash_code", hash_code_mean) 接下来就可以在 Table API/SQL 中进行使用了,如下:

    my_table.select("hash_code_mean(a, b)").insert_into("Results")
    
    2020-12-30 14:34:20
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    From Python Scikit-Learn to Sc 立即下载
    Data Pre-Processing in Python: 立即下载
    双剑合璧-Python和大数据计算平台的结合 立即下载