如何能将DataWorks里面多个流程跑的开始结束时间批量导出来?
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
可以通过DataWorks中的API接口来批量导出多个流程的开始结束时间。具体步骤如下:
1、打开DataWorks控制台,进入“工作空间”页面。
2、获取工作空间的access_token,可以通过以下API接口获取:
GET /api/datasources/token
3、获取当前工作空间下所有的数据集,可以通过以下API接口获取:
GET /api/projects/{projectName}/data-works
其中,{projectName}为工作空间名称,可以通过控制台中的“工作空间详情”页面获取。
4、遍历所有的数据集,获取每个数据集下的所有任务,可以通过以下API接口获取:
GET /api/data-works/{dataworksId}/jobs
其中,{dataworksId}为数据集的ID,可以在获取数据集列表的API接口中获取。
5、遍历每个任务,获取任务的运行记录,可以通过以下API接口获取:
GET /api/data-works/{dataworksId}/jobs/{jobId}/run-records
其中,{dataworksId}为数据集的ID,{jobId}为任务的ID,可以在获取任务列表的API接口中获取。
6、解析每个任务的运行记录,获取开始结束时间,并将结果导出到文件中。
在上述步骤中,需要注意的是,需要将API接口中的{projectName}、{dataworksId}、{jobId}等参数替换为具体的工作空间名称、数据集ID、任务ID等。另外,获取运行记录的API接口还支持一些查询参数,可以用于过滤特定时间范围内的运行记录等。具体可以参考DataWorks官方文档中的API接口说明。
DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。