提交代码后,再运维中心查看任务报错,SparkSql节点为什么只能在本地执行?

提交代码后,再运维中心查看任务报错,显示SparkSql节点输出的结果通过参数节点进行传递,再下游节点没有抓取到,但这个操作再本地是可以执行成功的,能正常获取参数的。请问这是为什么?

展开
收起
滴滴滴~ 2023-03-22 10:12:34 267 分享 版权
2 条回答
写回答
取消 提交回答
  • 发表文章、提出问题、分享经验、结交志同道合的朋友

    很可能是因为在运维中心中的执行环境与本地环境存在差异,原因太多,最好根据根据日志信息进行排查。

    2023-03-22 11:15:48
    赞同 展开评论
  • 这个需要具体看看任务依赖关系和参数配置了。 此答案整理自钉群“DataWorks交流群(答疑@机器人)”

    2023-03-22 10:41:54
    赞同 展开评论

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。

收录在圈子:
+ 订阅

热门讨论

热门文章

还有其他疑问?
咨询AI助理