开发者社区 > 大数据与机器学习 > 大数据开发治理DataWorks > 正文

提交代码后,再运维中心查看任务报错,SparkSql节点为什么只能在本地执行?

提交代码后,再运维中心查看任务报错,显示SparkSql节点输出的结果通过参数节点进行传递,再下游节点没有抓取到,但这个操作再本地是可以执行成功的,能正常获取参数的。请问这是为什么?

展开
收起
滴滴滴~ 2023-03-22 10:12:34 248 0
2 条回答
写回答
取消 提交回答
  • 发表文章、提出问题、分享经验、结交志同道合的朋友

    很可能是因为在运维中心中的执行环境与本地环境存在差异,原因太多,最好根据根据日志信息进行排查。

    2023-03-22 11:15:48
    赞同 展开评论 打赏
  • 这个需要具体看看任务依赖关系和参数配置了。 此答案整理自钉群“DataWorks交流群(答疑@机器人)”

    2023-03-22 10:41:54
    赞同 展开评论 打赏

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。

相关电子书

更多
企业运维之云原生和Kubernetes 实战 立即下载
可视化架构运维实践 立即下载
2021云上架构与运维峰会演讲合集 立即下载