开发者社区 > 大数据与机器学习 > 大数据开发治理DataWorks > 正文

老师 DataWorks中我有两个sql节点a,b,可以配置a节点只要运行完毕,无论成功失败都执行?

老师 DataWorks中我有两个sql节点a,b,可以配置a节点只要运行完毕,无论成功失败都执行b吗?

展开
收起
真的很搞笑 2023-05-21 17:30:22 151 0
2 条回答
写回答
取消 提交回答
  • 可以,你可以看一下分支节点,最简单的就是去掉任务依赖,改成时间,反正失败也执行,那就差两个小时,怎么也应该跑完了

    2023-05-23 08:52:46
    赞同 展开评论 打赏
  • 在DataWorks中,可以通过配置“任务依赖”来实现a节点运行完毕后无论成功或失败都执行b节点的需求。

    具体步骤如下:

    1、在DataWorks中创建一个工作流,将节点a和b添加到工作流中。

    2、点击节点b,在节点的配置面板中,找到“任务依赖”选项。

    3、在“任务依赖”选项中,勾选“上游节点成功或失败均执行”选项。

    4、保存配置,运行工作流即可实现a节点运行完毕后无论成功或失败都执行b节点的需求。

    代码示例:

    --节点a的SQL代码
    SELECT * FROM table_a;
    
    --节点b的SQL代码
    INSERT INTO table_b SELECT * FROM table_a;
    

    在节点b的配置面板中,勾选“上游节点成功或失败均执行”选项,即可实现a节点运行完毕后无论成功或失败都执行b节点,将数据从table_a插入到table_b中。

    2023-05-23 08:47:08
    赞同 展开评论 打赏

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。

相关产品

  • 大数据开发治理平台 DataWorks
  • 热门讨论

    热门文章

    相关电子书

    更多
    SQL Server在电子商务中的应用与实践 立即下载
    GeoMesa on Spark SQL 立即下载
    原生SQL on Hadoop引擎- Apache HAWQ 2.x最新技术解密malili 立即下载