开发者社区> 问答> 正文

python udf 提交到本地节点执行报错

你好、请教下配置pyflink、本地运行报错 [root@hadoop01 ~]# pip list | grep flink apache-flink (1.12.0)

[root@hadoop01 ~]# python3 -V Python 3.6.5

flink run -m localhost:8081 -py datastream_tutorial.py -pyexec /usr/local/python3/bin/python3

File "datastream_tutorial.py", line 1, in from pyflink.common.serialization import SimpleStringEncoder ModuleNotFoundError: No module named 'pyflink.common.serialization' ,请问下你是如何配置环境变量的吗?谢谢*来自志愿者整理的flink邮件归档

展开
收起
JACKJACK 2021-12-08 11:06:17 1148 0
1 条回答
写回答
取消 提交回答
  • 对的是我!

    看报错是你的客户端环境所使用的的python解释器没有安装pyflink。-pyexec指定的是你udf运行的worker所使用的python环境,但是你在客户端编译作业的时候也需要python环境,那个python环境也需要安装pyflink。*来自志愿者整理的flink邮件归档

    2021-12-08 11:24:51
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
From Python Scikit-Learn to Sc 立即下载
Data Pre-Processing in Python: 立即下载
双剑合璧-Python和大数据计算平台的结合 立即下载