任务不再等待!玩转DataWorks资源组

本文涉及的产品
大数据开发治理平台DataWorks,Serverless资源组抵扣包300CU*H
简介: DataWorks提供了三种资源组的能力:独享资源组、自定义资源组和默认资源组,很多开发者在使用资源组时经常会碰到各类情况,到时候任务运行失败或者延迟,例如: 1. 正在使用默认资源组,任务经常要等待 2.

引言

DataWorks提供了三种资源组的能力:独享资源组、自定义资源组和默认资源组,很多开发者在使用资源组时经常会碰到各类情况,到时候任务运行失败或者延迟,例如:
1. 正在使用默认资源组,任务经常要等待
2.购买错了资源组类型(独享数据集成资源组与独享调度资源组),使用不了
3.购买错了地域(杭州开通DataWorks购买了北京的资源组)
4.没买错资源组类型,也没买错地域,当天还是用不了

通过本篇文章,为您介绍三种资源组的使用场景、使用方式等;下图描述了整个任务在运行过程中不同类型使用的资源组的流程;
image.png
    调度有三种资源组:默认、独享、自定义;DataWorks中的数据集成也有同样的三种资源组:默认、独享、自定义;数据集成的同步资源管理复用调度系统资源管理系统,在使用DataWorks的时候,如果需要使用数据集成任务,那么需要区分开调度和数据集成2种资源组的概念;

默认资源组

    默认资源组是DataWorks在租户开始使用时候就给每个租户颁发的资源组了,租户内所有项目共享,不需要任何配置、操作就可以运行任务;但是该默认资源组需要说明节点:

  • 使用场景:

    • 默认资源组是在租户购买了DataWorks时候就会默认创建的,可以支持用户在页面进行数据开发、运行测试等能力,目前是免费支持的;
    • 任务量相对较少,或者相对来说对任务时效性要求不高的场景
  • 提供的能力

    • 支持所有的任务类型,但不支持:

      • 需要公网访问外部服务,且需要白名单的不支持;
      • 需要访问VPC的任务不支持
      • 需要访问公网的也不建议使用,建议切换其他资源组使用;
    • 任务安全沙箱的能力
  • 注意事项

    • 默认资源组最大调度资源是有固定分配的默认大小的;所有租户下项目共享,会存在项目之间的资源抢占,不能100%保障任务按时获得资源运行;
    • 默认资源组是在平台的公共集群下的,所有租户都共享该集群资源,所以在高峰期会存在租户之间的资源抢占,不能100%保障任务按时获得资源运行;
  • 费用

    • 按量付费(实例费用、同步进程费用等)

独享资源组

    目前DataWorks的独享资源组提供了2种:独享调度资源组和独享数据集成资源组,在此处为了更好的理解为什么需要2种资源组的方式,可以将独享数据集成资源组理解为MaxCompute的计算资源概念,因为数据集成隶属于DataWorks产品内,所以在同步资源是跟调度资源在一起购买的;可以参考引言中的图;

一、独享调度资源组

(1)信息说明
  • 版本要求:无
  • 类型:

    • 独享调度资源组
    • 独享数据集成资源组
  • 使用场景

    • 推荐只要生产任务都使用独享资源组

      • 资源可随时调配
      • 任务产出可得到保障
    • 任务量大、且对任务时效性要求高的场景必须使用独享
    • 需要访问公网地址、访问VPC地址,请使用独享
    • 访问目的端服务,需要配置白名单的场景,请使用独享
    • 自己VPC与IDC已经打通,任务需要访问IDC的,可使用独享解决网络问题;
  • 注意事项

    • 独享目前不能支持跨租户节点、机器学习任务;其余支持
    • 购买独享资源组的时候,务必要注意购买与自己VPC在同一个可用区
    • 切换任务资源组的时候:

      • 注意每种任务类型都需要测试验证:网络是否已经打通
  • 费用:

    • 调度:相对默认资源组,如果实例超过500个,独享资源会相对便宜很多;不收取实例费用,仅资源费用;
(2)如何修改任务运行到独享调度资源组

特别特别注意:
1、在运维中心任务修改资源组周期任务是需要第二天才会生效,及时生效可以通过测试或者补数据运行即可;
2、__一定要先单个测试在批量修改,__一定要先单个测试在批量修改,__一定要先单个测试在批量修改
3、如果有网络打通的,优先将网络打通,可以在测试的时候验证出来的;
详细操作步骤:

  • step1:购买独享资源组

    • 说明:一般按照实际的任务并发数来购买对应的资源数量,可以参考:https://help.aliyun.com/document_detail/125776.html?spm=a2c4g.11186623.6.573.20a87b75cx5tkl 里面的场景三
    • 购买指引:https://help.aliyun.com/document_detail/121526.html?spm=a2c4g.11174283.6.641.4b1c2b65Y7CSE8
    • 登录管控台:目前需要有主账户权限或者已经授权过的子账户
    • 打开页面,点击“新增独享资源组”image.png
    • 新增页面,选择“独享调度资源组”:
    • image.png
    • 点击购买链接,去购买:此处特别建议:至少购买2台(做容灾保障,Failover的能力)
    • image.png
    • 购买完毕后,就可以返回在控制台刚才的创建页面,选择订单号了:
    • 然后选择可用区:特别特别注意:可用区需要跟您的VPC在一个可用区:(就是你的任务是否需要访问VPC地址,比如访问ads、adb等,就需要跟次VPC在一个可用区)如果没有可用,提工单!

image.png

  • step2:购买成功后,大概需要等待5分钟左右,资源组即可创建完毕;【需要点击刷新按钮,不会主动刷新】

image.png

  • step3:将资源组分配到需要的项目中使用,点击:“修改归属空间”,点击确定接口

image.png

  • step4:指定完毕项目空间后,就可以切换到运维中心去修改任务资源组了;
  • step5:打开运维中心,切换到指定项目下,比如此处上述资源组分配到了monitor_prj项目中,到该项目的到周期任务中,选择需要修改的,点击下方有个更多里面有个修改资源组;

特别特别注意:虚节点、工作流、机器学习等任务类型不要选择上,因为这些不支持资源组修改;
image.png  -> image.png

  • step6:修改完毕资源组后,可以点击任务详情,查看属性,就可以看到任务的资源组信息:

image.png
image.png

  • step7:测试验收:

    • 任务资源组修改完毕后,可以进行测试、补数据运行,任务就会运行到当前的资源组上,可以通过查看日志判断任务是否已经在独享资源组上:

image.png -> image.png

  • 任务运行成功,在看下日志了,是否都OK的,就说明该任务运行到独享资源组上没有什么问题;
  • step8:批量修改同一种任务类型的任务切换到该资源组上:

    • 过滤节点类型
    • 全选

image.png
以上,就完成了将任务迁移到独享资源组运行的操作了;

二、独享数据集成资源组

(一)信息说明
  • 版本要求:无
  • 使用场景

    • 推荐只要生产任务都使用独享数据集成资源组

      • 资源可随时调配
      • 任务产出可得到保障
    • 任务量大、且对任务时效性要求高的场景必须使用独享
    • 需要访问公网地址、访问VPC地址,请使用独享
    • 访问目的端服务,需要配置白名单的场景,请使用独享
    • 自己VPC与IDC已经打通,任务需要访问IDC的,可使用独享解决网络问题;
  • 注意事项

    • 如果数据源是经典网络的,不可迁移到独享,因为独享是VPC的
    • 购买独享资源组的时候,务必要注意购买与自己VPC在同一个可用区
(二)如何修改任务运行到独享数据集成资源组

写在最前面:
1、一定要先单个测试在批量修改,一定要先单个测试在批量修改,一定要先单个测试在批量修改
2、如果有网络打通的,优先将网络打通,可以在测试的时候验证出来的;
3、独享数据集成资源组是在数据开发页面修改提交,发布后是及时生效的;
详细操作步骤:

  • step1:购买创建、分配流程:同独享调度资源组是一致的,注意一点就是规格问题:简单理解多大内存就允许多大并发
  • step2:修改任务到独享数据集成资源组,登录到对应项目空间的数据开发页面,找到你的同步任务,打开编辑:

    • 通过向导模式配置任务时,在通道控制 > 任务资源组下拉框中,选择相应的独享数据集成资源。
    • 通过脚本模式配置任务时,单击右上角的配置任务资源组,在任务资源组下拉框中,选择相应的独享数据集成资源。
  • step3:任务资源组修改完毕后,保存,提交;发布后,一样的,在运维中心进行测试或者补数据运行,就可以验证是否测试通过
  • step4:目前数据集成资源组的修改无法支持批量修改,只能按照上述方法,逐一任务修改!

三、专有网络绑定

  • 使用场景

    • 当配置的任务需要访问自己VPC内的地址的时候,就需要做VPC之间的网络打通,比如需要访问adb的vpc,那就必须要做这一步
    • 如果你的VPC跟你的IDC已经专线打通,那也可以通过此功能将独享与你的idc打通,可以支持任务运行,不过此操作需要平台支持
  • 前提条件

    • 创建的独享资源组与自己VPC在一个可用区
    • 如果不在一个可用区:建议重新购买创建;若无法重新创建则只能提工单需求!
  • 操作步骤

    • step1:打开控制资源组列表,找到独享资源组->专有网络绑定

 image.png

  • step2:点击后,需要授权使用,点击授权即可
  • step3:选择需要绑定的资源组,点击 新增绑定:

image.png

  • step4:填写对应的自己VPC下的信息:

    • 特别注意:选择VPC、交换机、安全组都是你目的端要访问的云产品实例所在的
    • 如果没有交换机或者安全组,可点击创建(注意创建的时候都要在该可用区下)

image.png

  • step5:如果你的云产品实例需要配置白名单的话:绑定成功后,回到独享资源组列表,点击 查看信息:

    • 会有eip、网段,需要将此2个IP和ip段作为白名单列表添加到你对应的云产品实例的IP白名单列表中;
    • 同时,需要将自己云产品实例所在的交换机网段(内网网段)也添加到自己的白名单IP列表中
    • 特别特别注意:如果您的MaxCompute开启的IP白名单,任务切换到了独享资源组后,发现白名单问题,请提工单,由平台方提供IP列表添加

image.png

四、运维助手

自定义资源组

  • 版本要求:

    • 自定义调度资源组:企业版及以上,需要提工单白名单开放
    • 自定义数据集成资源组:专业版及以上
  • 解决的场景:

    • 网络问题:做数据同步需要访问自己IDC的
    • 环境因数:比如依赖了python高版本、jdk环境等等,可以使用一台环境满足的ecs作为自定义资源
    • 搬站:一些客户本地以及有工作流任务开发在运行了,期望可以减少搬站迁移的工作量,可以还是将任务直接调度到自己的服务器上,减少代码脚本的迁移;
  • 注意事项

    • 只能支持数据集成任务和shell任务
  • 操作使用:

image.png

- step2:DataWorks控制台打开,先创建资源组:

image.png

- step3:创建资源组后,在点击 服务器管理,添加服务器,特别特别注意,**此步骤最容易出错:**
  - **网络类型:只能支持专有网络;**
  - **UUID:必须使用UUID方式添加,UUID获取方法:执行`dmidecode | grep UUID`,取返回值**
  - **IP:机器的内网IP,可以登录机器:hostname -i接口或得**

image.png

  image.png

- step4: 服务添加完毕后,回到自定义资源组页面,刷新按钮,点击 服务器初始化,按照初始化流程,登录到ECS操作
- step5:服务器操作完毕后,可以到页面等待10分钟,观察服务器状态正常即可;
  • 修改任务到自定义资源组流程跟独享一样

    • 调度资源组:运维中心修改
    • 数据集成:编辑开发页面修改,需要提交发布
相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
一站式大数据开发治理平台DataWorks初级课程
DataWorks 从 2009 年开始,十ー年里一直支持阿里巴巴集团内部数据中台的建设,2019 年双 11 稳定支撑每日千万级的任务调度。每天阿里巴巴内部有数万名数据和算法工程师正在使用DataWorks,承了阿里巴巴 99%的据业务构建。本课程主要介绍了阿里巴巴大数据技术发展历程与 DataWorks 几大模块的基本能力。 课程目标  通过讲师的详细讲解与实际演示,学员可以一边学习一边进行实际操作,可以深入了解DataWorks各大模块的使用方式和具体功能,让学员对DataWorks数据集成、开发、分析、运维、安全、治理等方面有深刻的了解,加深对阿里云大数据产品体系的理解与认识。 适合人群  企业数据仓库开发人员  大数据平台开发人员  数据分析师  大数据运维人员  对于大数据平台、数据中台产品感兴趣的开发者
目录
相关文章
|
4月前
|
弹性计算 DataWorks 安全
成本最高可降40%!揭秘DataWorks资源组的Serverless进化之路
阿里云DataWorks为数据仓库/数据湖/湖仓一体等解决方案提供智能一站式开发治理平台能力。其中在资源组Serverless化方面,DataWorks实现了重大突破,不仅提高了资源利用率与灵活性,还降低了成本。DataWorks通过升级资源组管理模式,解决了传统资源组存在的复杂计费、资源利用率低等问题。Serverless资源组实现了资源的自动管理和分配,确保任务调度效率,并通过统一资源配额管理实现资源的高效利用和平滑扩缩。此外,容器运行时技术保障了数据和任务的安全隔离。Serverless资源组具备通用性强、付费形式灵活、支持运行中扩缩容等优势,有效提升了用户体验与安全性。
286 10
成本最高可降40%!揭秘DataWorks资源组的Serverless进化之路
|
3月前
|
SQL 机器学习/深度学习 分布式计算
dataworks节点任务
在DataWorks中,你可以通过拖拽节点以及连线来构建复杂的工作流,这样可以方便地管理多个任务之间的依赖关系。此外,DataWorks还提供了调度功能,使得这些任务可以在设定的时间自动执行。这对于构建自动化、定时的数据处理管道非常有用。
69 5
|
4月前
|
DataWorks 监控 安全
DataWorks产品使用合集之怎么设置实时同步任务的速率和并发
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
4月前
|
SQL DataWorks API
DataWorks产品使用合集之补数据任务最多能查看多少天的记录
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
4月前
|
DataWorks 安全 定位技术
DataWorks产品使用合集之怎么指定任务的执行时间
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
4月前
|
分布式计算 DataWorks 监控
DataWorks产品使用合集之设置任务监控的步骤是什么
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
4月前
|
分布式计算 运维 DataWorks
DataWorks产品使用合集之如何实现任务的批量导入和导出
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
4月前
|
SQL DataWorks 安全
DataWorks产品使用合集之怎么跨项目移动sql任务
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
16天前
|
SQL DataWorks 数据可视化
DataWorks产品体验与评测
在当今数字化时代,数据处理的重要性不言而喻。DataWorks作为一款数据开发治理平台,在数据处理领域占据着重要的地位。通过对DataWorks产品的体验使用,我们可以深入了解其功能、优势以及存在的问题,并且与其他数据处理工具进行对比,从而为企业、工作或学习中的数据处理提供有价值的参考。
45 6
DataWorks产品体验与评测
|
10天前
|
SQL DataWorks 搜索推荐
DataWorks产品评测与最佳实践体验报告
DataWorks是阿里巴巴云推出的一款高效数据处理平台,通过内置的数据集成工具和ETL功能,实现了多源数据的自动化处理与分析。本文介绍了DataWorks在用户画像分析中的应用实践,展示了其如何帮助企业高效管理数据资源,支持决策制定及营销优化。同时,文章还评测了DataWorks的产品体验,包括开通流程、功能满足度等方面,并与其它数据开发平台进行了比较,突出了DataWorks在易用性、性能和生态完整性上的优势。最后,对Data Studio新版本中的Notebook环境进行了初步探索,强调了其在提升开发效率方面的价值。
47 16

热门文章

最新文章

  • 1
    DataWorks操作报错合集之DataWorks任务异常 报错: GET_GROUP_SLOT_EXCEPTION 该怎么处理
    117
  • 2
    DataWorks操作报错合集之DataWorksUDF 报错:evaluate for user defined function xxx cannot be loaded from any resources,该怎么处理
    114
  • 3
    DataWorks操作报错合集之在DataWorks中,任务流在调度时间到达时停止运行,是什么原因导致的
    112
  • 4
    DataWorks操作报错合集之DataWorks ODPS数据同步后,timesramp遇到时区问题,解决方法是什么
    99
  • 5
    DataWorks操作报错合集之DataWorks配置参数在开发环境进行调度,参数解析不出来,收到了 "Table does not exist" 的错误,该怎么处理
    103
  • 6
    DataWorks操作报错合集之DataWorks中udf开发完后,本地和在MaxCompute的工作区可以执行函数查询,但是在datawork里报错FAILED: ODPS-0130071:[2,5],是什么原因
    117
  • 7
    DataWorks操作报错合集之DataWorks提交失败: 提交节点的源码内容到TSP(代码库)失败:"skynet_packageid is null,该怎么解决
    123
  • 8
    DataWorks操作报错合集之DataWorks在同步mysql时报错Code:[Framework-02],mysql里面有个json类型字段,是什么原因导致的
    155
  • 9
    DataWorks操作报错合集之DataWorks集成实例绑定到同一个vpc下面,也添加了RDS的IP白名单报错:数据源配置有误,请检查,该怎么处理
    91
  • 10
    DataWorks操作报错合集之在 DataWorks 中运行了一个 Hologres 表的任务并完成了执行,但是在 Hologres 表中没有看到数据,该怎么解决
    130