开发者社区 > 大数据与机器学习 > 大数据开发治理DataWorks > 正文

DataWorks透传变量的取值不会同步更新为new_node的output?

DataWorks通过节点组copy的参数节点,依赖会同步更新成new_node,但是透传变量的取值不会同步更新为new_node的output?

展开
收起
真的很搞笑 2023-12-03 17:25:53 25 0
2 条回答
写回答
取消 提交回答
  • 这是因为在DataWorks中,节点组copy的参数节点只是复制了节点的配置信息,而没有复制节点的运行时状态。因此,依赖关系会同步更新为new_node,但是透传变量的取值不会同步更新为new_node的output。

    要解决这个问题,可以在新的节点上重新配置透传变量,确保它们引用了正确的输出。

    2023-12-04 17:38:11
    赞同 1 展开评论 打赏
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    在DataWorks中,节点的输出相当于当前节点的定义。下游节点如果需要依赖当前节点,可以通过引用本节点的任何一个输出名称作为下游节点的父节点输出名称,从而与当前节点建立依赖关系。然而,在使用节点组copy的参数节点时,发现依赖会同步更新成new_node,但透传变量的取值却不会同步更新为new_node的output。

    这可能是因为透传变量的取值并不会随着节点名的变化而自动更新。在这种情况下,你可能需要手动修改透传变量的取值为new_node的output,以保证任务的正确执行。同时,建议详细阅读DataWorks的相关文档和指南,以更好地理解其工作原理和使用规则。

    2023-12-03 17:50:10
    赞同 展开评论 打赏

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。

相关产品

  • 大数据开发治理平台 DataWorks
  • 热门讨论

    热门文章

    相关电子书

    更多
    探究 Node.js 的服务端之路 立即下载
    个推微服务实践 基于OpenResty 和Node.js 立即下载
    沪江基于Node.js大规模应用实践 立即下载