DataWorks产品使用合集之DataWorks中可以使用什么来获取某个特定表的特定分区的Instance ID

本文涉及的产品
大数据开发治理平台 DataWorks,不限时长
简介: DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。

问题一:DataWorks如何获得某个特定表,特定分区的instances id啊?


DataWorks如何获得某个特定表,特定分区的instances id啊?

我要用pyodps判断这个表分区的状态

instance = o.get_instance('2016042605520945g9k5pvyi2')

instance.status?


参考回答:

这个看着是计算的instanceid


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/566968


问题二:DataWorks管理数据源权限进入数据源管理页面?


DataWorks管理数据源权限进入数据源管理页面?


参考回答:

进入数据源管理页面。登录DataWorks控制台。在左侧导航栏,单击工作空间列表。选择工作空间所在地域后,单击相应工作空间后的进入数据集成。在左侧导航栏,单击数据源,进入数据源管理页面。在数据源管理页面,单击相应数据源后的权限管理。在数据源权限管理对话框中,配置各项参数。

序号 参数 描述

① 工作空间 为您展示当前操作人员参与的所有工作空间,并且展示空间内的所有人员。您可以针对整个工作空间,或者工作空间下的某些人员进行数据源分享:

② 工作空间类型 为您展示各工作空间的类型,包括简单和标准两种类型。

③ 权限 数据源的权限控制包括以下三种类型:

④ 批量操作 批量选中工作空间或成员后,您可以设置批量不可编辑、批量可编辑和批量无权限。单击确定。数据源支持跨工作空间分享,分享规则如下:从简单模式工作空间分享至简单模式工作空间:源端的简单模式工作空间升级为标准模式工作空间时:源工作空间会分享生产环境的数据源。目标简单模式工作空间升级为标准模式工作空间时:数据源变为两个,分别对应开发环境和生产环境,且内容一致。从简单模式工作空间分享至标准模式工作空间:数据源在标准模式工作空间下变为两个,分别对应开发环境和生产环境,且内容一致。从标准模式工作空间分享至标准模式工作空间:不同环境的数据源,分享后在目标工作空间内,仍然对应各自的环境。从标准模式工作空间分享至简单模式工作空间:源工作空间的生产或开发环境下的数据源,均支持分享。分享至目标数据源后,仅保留一个数据源,且最新分享的数据源会覆盖之前的数据源。如果目标工作空间升级为标准模式工作空间,则该数据源会变为两个,分别对应开发和生产环境,且内容一致,均与源数据源保持分享关系。

https://help.aliyun.com/document_detail/174499.html


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/566967


问题三:DataWorks表的分区是按天分区的,我想同步的时候直接指定2019年的所有数据,可以直接指定么?


DataWorks表的分区是按天分区的,我想同步的时候直接指定2019年的所有数据,可以直接指定么?


参考回答:

分区,同步任务可以支持ODPS的数据列、分区列、常量列,但不支持函数列

ODPS分区配置支持linux shell通配符,* 表示0个或多个字符,? 代表任意一个字符

例如分区表 test存在 pt=1,ds=hangzhou pt=1,ds=shanghai pt=2,ds=hangzhou pt=2,ds=beijing 四个分区,

如果你想读取 pt=1,ds=shanghai 这个分区的数据,分区信息中配置: pt=1,ds=shanghai;

如果你想读取 pt=1下的所有分区,分区信息中配置 :pt=1,ds=
如果你想读取整个 test 表的所有分区的数据,分区信息中配置 :pt=
,ds=*

如果需要指定最大分区,可以配置如下信息:

/query/ ds=(select MAX(ds) from DataXODPSReaderPPR)

如果需要按条件过滤,可以配置如下信息:

/query/ pt>=20170101 and pt<20170110,表示pt分区大于等于20170101且小于20170110的所有数据

ODPS写插件指定分区技巧

需要写入数据表的分区信息,必须指定到最后一级分区。把数据写入一个三级分区表,必须配置到最后一级分区

例如:pt=20150101/type=1/biz=2

不支持写入多个分区


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/566965


问题四:DataWorks这个能消掉吗?


DataWorks这个能消掉吗?


参考回答:

这个是一直存在的,方便咨询的


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/566963


问题五:dataworks为分区的表设置生命周期,是会定时删除老数据吗?


dataworks为分区的表设置生命周期,是会定时删除老数据吗?


参考回答:

转交任务,【修改节点或任务的责任人】

应用管理员可以在运维中心对节点进行批量修改责任人,运维中心-周期任务,选择节点并修改责任人。

节点责任人自己在数据开发,节点的调度配置页面,基本属性中可以修改责任人。修改后需要提交并发布;

会的 定时删除分区


关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/566962

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
一站式大数据开发治理平台DataWorks初级课程
DataWorks 从 2009 年开始,十ー年里一直支持阿里巴巴集团内部数据中台的建设,2019 年双 11 稳定支撑每日千万级的任务调度。每天阿里巴巴内部有数万名数据和算法工程师正在使用DataWorks,承了阿里巴巴 99%的据业务构建。本课程主要介绍了阿里巴巴大数据技术发展历程与 DataWorks 几大模块的基本能力。 课程目标 &nbsp;通过讲师的详细讲解与实际演示,学员可以一边学习一边进行实际操作,可以深入了解DataWorks各大模块的使用方式和具体功能,让学员对DataWorks数据集成、开发、分析、运维、安全、治理等方面有深刻的了解,加深对阿里云大数据产品体系的理解与认识。 适合人群 &nbsp;企业数据仓库开发人员 &nbsp;大数据平台开发人员 &nbsp;数据分析师 &nbsp;大数据运维人员 &nbsp;对于大数据平台、数据中台产品感兴趣的开发者
目录
相关文章
|
6天前
|
DataWorks NoSQL Java
DataWorks操作报错合集之在 DataWorks 中运行了一个 Hologres 表的任务并完成了执行,但是在 Hologres 表中没有看到数据,该怎么解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
25 0
|
6天前
|
缓存 DataWorks 监控
DataWorks操作报错合集之在DataWorks中进行数据同步时,遇到数据量大的表同步时报链接异常,该怎么办
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
22 0
|
6天前
|
运维 DataWorks 关系型数据库
DataWorks产品使用合集之DataWorks中如何提升运维中心实时同步任务的运行速度
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
52 1
|
6天前
|
SQL JSON 分布式计算
DataWorks产品使用合集之DataWorks一键maxcompute数据同步的操作步骤是什么
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
27 0
|
6天前
|
SQL DataWorks 测试技术
DataWorks产品使用合集之DataWorks如何进行业务流程克隆
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
25 0
|
6天前
|
分布式计算 DataWorks MaxCompute
DataWorks产品使用合集之在DataWorks中,如何进行批量复制操作来将一个业务流程复制到另一个业务流程
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
22 0
|
6天前
|
分布式计算 DataWorks 关系型数据库
DataWorks产品使用合集之在 DataWorks 中,使用Oracle作为数据源进行数据映射和查询,如何更改数据源为MaxCompute或其他类型
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
33 1
|
6天前
|
分布式计算 DataWorks 安全
DataWorks产品使用合集之在 DataWorks 中,如何查看自己已有的权限,申请和交还权限
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
26 0
|
6天前
|
数据采集 分布式计算 DataWorks
DataWorks产品使用合集之DataWorks 数据集成中的数据源管理和管理空间的数据源之间的关系是怎样的
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
44 0
|
6天前
|
DataWorks 关系型数据库 MySQL
DataWorks产品使用合集之在DataWorks中,如何通过PolarDB for MySQL来查看binlog日志
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
34 1

热门文章

最新文章

相关产品

  • 大数据开发治理平台 DataWorks