如何使用DataWorks的整库迁移给目标表名加上前缀

本文涉及的产品
DataWorks独享数据集成资源组,8核16GB 1个月
大数据开发治理平台 DataWorks,不限时长
简介: 我们在搭建数仓的时候,有多个业务库需要将数据上云,如果手动来配置这些数据采集的任务,那将会是一个非常繁重的工作。DataWorks中的数据集成提供了整库迁移的功能,来方便大家快速进行数据上云,并可在配置任务的过程中,对目标表添加表前缀,助力于数仓的快速搭建。
+关注继续查看

DataWorks的整库迁移的介绍本文不再细述,想了解的同学可以参考一下这个文档 整库迁移概览。下面主要给大家介绍一下如何使用整库迁移的时候,给目标表名加上前缀。

如何使用DataWorks的整库迁移给目标表名加上前缀

  1. 在数据源中点击mysql数据源的整库迁移,进入整库迁移任务配置界面。
    image
  2. 在点击高级配置,然后在表名转换规则这里输入通配符,注意格式,以及转换的后的规则,$1会自动替换成匹配上的字符串,点击确认。
    image
  3. 选择一张表名,点击提交任务。
    image
  4. 点击查看任务。
    image
  5. 可以见到,同步任务已经快速生成,并且目标表也已经加上了ods_XXX 的表前缀。
    image

有其他DataWorks的相关使用问题,可以加入DataWorks的交流群,AT 彭敏 & 龚汉仆获取技术支持。
image

相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
一站式大数据开发治理平台DataWorks初级课程
DataWorks 从 2009 年开始,十ー年里一直支持阿里巴巴集团内部数据中台的建设,2019 年双 11 稳定支撑每日千万级的任务调度。每天阿里巴巴内部有数万名数据和算法工程师正在使用DataWorks,承了阿里巴巴 99%的据业务构建。本课程主要介绍了阿里巴巴大数据技术发展历程与 DataWorks 几大模块的基本能力。 课程目标  通过讲师的详细讲解与实际演示,学员可以一边学习一边进行实际操作,可以深入了解DataWorks各大模块的使用方式和具体功能,让学员对DataWorks数据集成、开发、分析、运维、安全、治理等方面有深刻的了解,加深对阿里云大数据产品体系的理解与认识。 适合人群  企业数据仓库开发人员  大数据平台开发人员  数据分析师  大数据运维人员  对于大数据平台、数据中台产品感兴趣的开发者
目录
相关文章
|
20天前
|
DataWorks
DataWorks的迁移功能可以将一个空间下的业务流程迁移到另一个空间
DataWorks的迁移功能可以将一个空间下的业务流程迁移到另一个空间
15 1
|
SQL 分布式计算 DataWorks
DataWorks 迁移助手介绍及实践 | 学习笔记
快速学习 DataWorks 迁移助手介绍及实践,介绍了 DataWorks 迁移助手介绍及实践系统机制, 以及在实际应用过程中如何使用。
220 0
DataWorks 迁移助手介绍及实践 | 学习笔记
|
SQL 分布式计算 运维
DataWorks迁移助手介绍及最佳实践 | 《一站式大数据开发治理DataWorks使用宝典》
迁移助手是DataWorks上开发成果快速复制的利器,通过迁移助手可以将DataWorks上的开发成果在不同的环境快速复制。迁移助手是DataWorks的一个全新模块,它的核心能力主要分为两部分,一是任务上云,二是DataWorks迁移。
1672 0
DataWorks迁移助手介绍及最佳实践 | 《一站式大数据开发治理DataWorks使用宝典》
|
DataWorks
【商业化通知】DataWorks迁移助手将在2021年8月1日开启商业化
DataWorks迁移助手将在2021年8月1日开启商业化
261 0
【商业化通知】DataWorks迁移助手将在2021年8月1日开启商业化
|
SQL 分布式计算 DataWorks
DataWorks搬站方案:Airflow作业迁移至DataWorks
DataWorks提供任务搬站功能,支持将开源调度引擎Oozie、Azkaban、Airflow的任务快速迁移至DataWorks。本文主要介绍如何将开源Airflow工作流调度引擎中的作业迁移至DataWorks上
1146 0
DataWorks搬站方案:Airflow作业迁移至DataWorks
|
SQL 分布式计算 DataWorks
DataWorks搬站方案:Azkaban作业迁移至DataWorks
DataWorks迁移助手提供任务搬站功能,支持将开源调度引擎Oozie、Azkaban、Airflow的任务快速迁移至DataWorks。本文主要介绍如何将开源Azkaban工作流调度引擎中的作业迁移至DataWorks上。
999 0
DataWorks搬站方案:Azkaban作业迁移至DataWorks
|
DataWorks 调度 测试技术
“乾坤大挪移”—DataWorks迁移助手公测
DataWorks迁移助手是一个快速迁移DataWorks上开发成果的产品,支持迁移的对象有:周期任务、手动任务、资源、函数、数据源、表元数据、临时查询和组件等。您可以根据业务需求,选择全量导出、增量导出或自选导出等方式导出DataWorks中的开发成果。迁移助手自动生成导入、导出报告,让您随时了解迁移进度。迁移助手将在8月初在DataWorks全部Region开放公测,敬请期待。
1303 0
“乾坤大挪移”—DataWorks迁移助手公测
|
存储 分布式计算 Oracle
|
分布式计算 关系型数据库 MaxCompute
PgSQL · 最佳实践 · 从 MaxCompute (ODPS) 迁移数据到 HybridDB
title: PgSQL · 最佳实践 · 从 ODPS 迁移数据到 HybridDB author: 义从 背景 最近,不少用户在尝试使用 HybridDB 的过程中,询问我们如何把之前在 ODPS 中的数据迁移到 HybridDB。
3373 0
|
SQL 存储 分布式计算
ODPS跨集群迁移与数据同步经验分享
集团业务的迅猛发展带来数据量的激增,存储容量告急,迫切需要将生产集群PA上的大量数据迁移到其它集群。如何安全地跨集群迁移几十PB的数据和其上相关业务,是我们面临的第一个挑战。数据迁移之后,两个集群间存在大量的数据依赖,需要互相访问最新的数据,如何安全快速地实现跨集群数据同步,这是紧跟其后的第二个挑战
3790 0
推荐文章
更多