在DataWorks中,导出任务的前提条件包括:
1、已经在项目中创建了需要导出的表或者视图。
2、已经在DataWorks中创建了数据源,并与目标表或视图进行了绑定。
3、目标表或视图的数据已经被清洗或处理过,符合导出条件。
4、如果需要导出的数据比较大,需要保证DataWorks集群的计算资源和存储资源充足。
5、用户必须有足够的权限来执行导出任务。例如,对目标表或视图有读取权限。
除以上前提条件外,还需要根据具体情况配置导出任务的参数,例如导出格式、导出文件存储地址和文件命名规则等。
DataWorks为您提供标准模板便于导出除Oozie、Azkaban和Airflow外的开源引擎任务。导出任务前,您需要下载标准格式模板并参考模板的文件结构修改内容。下载模板及目录结构的介绍请进入开源引擎导出页面进行查询:进入数据开发页面。登录DataWorks控制台。在左侧导航栏,单击工作空间列表。选择工作空间所在地域后,单击相应工作空间后的进入数据开发。单击左上方的图标,选择全部产品 > 其他 > 迁移助手。在左侧导航栏,单击任务上云 > 调度引擎作业导出,进入调度引擎导出方案选择页面。单击标准模板。在标准模板页签下,单击标准格式模板进行下载。根据模板中的格式修改内容后,即可生成导出包。 此答案整理自钉群“DataWorks交流群(答疑@机器人)”
dataworks的导出任务前提条件已开通dataworks服务并创建dataworks空间。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。