开发者社区 > 大数据与机器学习 > 大数据计算 MaxCompute > 正文

DataWorks数据集成多张表到maxcompute中这样的话依赖的上游节点是不是数据集成的节点?

DataWorks数据集成多张表到maxcompute中,那我后续开发需要用到这些表,这样的话依赖的上游节点是不是数据集成的节点?

展开
收起
真的很搞笑 2023-10-16 21:08:31 63 0
3 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    在DataWorks中,如果将多张表从数据源中集成到MaxCompute中,那么后续开发需要使用这些表时,依赖的上游节点是数据集成的节点。
    因为数据集成的节点是将数据从源系统中提取、转换和加载到MaxCompute中的,而这些数据是后续开发所需的。因此,如果需要使用这些数据,就需要依赖数据集成的节点。同时,通过数据集成的节点,可以将多个表合并到一个表中,或者对数据进行更复杂的处理和分析,以便更好地满足后续开发的需求。
    需要注意的是,数据集成的节点只是将数据从源系统中加载到MaxCompute中,而不会实时更新数据。如果需要实时更新数据,可以通过实时数据集成的方式来实现。

    2023-10-17 15:10:26
    赞同 展开评论 打赏
  • 对的 挂依赖相当于是等同步完成后 再进行下游计算,此回答整理自钉群“DataWorks交流群(答疑@机器人)”

    2023-10-17 08:11:35
    赞同 展开评论 打赏
  • 是的,如果您在 DataWorks 中通过数据集成将多张表导入到 MaxCompute 中,并且后续的开发任务需要使用这些表作为输入数据,那么对于这些开发任务节点来说,其上游节点将是数据集成的节点。

    在 DataWorks 中,数据集成任务会将数据从源系统提取并加载到目标系统(如 MaxCompute)。当您创建后续的开发任务时,可以选择数据集成任务中导入的表作为输入表,并将该数据集成任务的节点作为上游节点。

    这样,当数据集成任务执行成功后,后续的开发任务将能够使用被导入的表作为输入数据,并且在运行时会依赖数据集成任务完成数据导入操作。这种方式可以保证数据集成任务在成功执行后再开始后续的开发任务

    2023-10-16 21:30:58
    赞同 展开评论 打赏

MaxCompute(原ODPS)是一项面向分析的大数据计算服务,它以Serverless架构提供快速、全托管的在线数据仓库服务,消除传统数据平台在资源扩展性和弹性方面的限制,最小化用户运维投入,使您经济并高效的分析处理海量数据。

相关产品

  • 云原生大数据计算服务 MaxCompute
  • 相关电子书

    更多
    Data+AI时代大数据平台应该如何建设 立即下载
    大数据AI一体化的解读 立即下载
    极氪大数据 Serverless 应用实践 立即下载