DRDS向ADS数据迁移指南

本文涉及的产品
云原生数据库 PolarDB 分布式版,标准版 2核8GB
简介: 1 CDP简介 数据同步节点任务是阿里云大数据平台对外提供的稳定高效、弹性伸缩的数据同步云服务。用户利用数据同步节点可以轻松地实现DRDS到ADS的数据同步。使用CDP将DRDS数据同步至ADS前需要在目标端创建相应的表结构,同步数据的具体操作如下: 2 配置数据源 2.1 增加DRDS数据源 1.登录Base管控台,单击顶部菜单栏中的项目管理,并选择相应的项目。

1 CDP简介

数据同步节点任务是阿里云大数据平台对外提供的稳定高效、弹性伸缩的数据同步云服务。用户利用数据同步节点可以轻松地实现DRDS到ADS的数据同步。使用CDP将DRDS数据同步至ADS前需要在目标端创建相应的表结构,同步数据的具体操作如下:

2 配置数据源

2.1 增加DRDS数据源

1.登录Base管控台,单击顶部菜单栏中的项目管理,并选择相应的项目。

2. 进入数据源配置,单击新增数据源

e0180ae0511e86c87442f925f320d5f050fde955

3. 在新建数据源弹出框中,选择数据源类型为 DRDS。

4. 配置 DRDS 数据源的各个信息项。

cbfee375a88a3f13e6d54d5300a23355008d9c24

配置项说明:

l  数据源名称:由英文字母、数字、下划线组成且需以字符或下划线开头,长度不超过60个字符。

l  数据源描述:对数据源进行简单描述,不得超过80个字符。

l  数据源类型:当前选择的数据源类型DRDS。

l  jdbcUrl:JDBC连接信息,格式为:jdbc://mysql://serverIP:Port/database。

l  用户名/密码:对应的用户名和密码。

5. 单击测试连通性

6. 测试连通性通过后,单击确定

2.2 增加ADS数据源

1.登录Base管控台,单击顶部菜单栏中的项目管理,并选择相应的项目。

2. 进入数据源配置,单击新增数据源

2359de806eea67c35b858d436bb00340904474ee

3. 在新建数据源弹出框中,选择数据源类型为 ADS。ADS数据源提供了其他数据源向 AnalyticDB 写入的功能,暂不能读取数据。

4. 配置 ADS 数据源的各个信息项。

3fed928253b69d86d0f8179638a905ab37ad4abb

配置项说明:

l  数据源名称:由英文字母、数字、下划线组成且需以字符或下划线开头,长度不超过60个字符。

l  数据源描述:对数据源进行简单描述,不得超过80个字符。

l  数据源类型:当前选择的数据源类型ADS。

l  连接UrlADS连接信息,格式为:serverIP:Port

l  Schema相应的 ADS Schema 信息。

l  AccessID/AceessKey访问密钥 AccessKeyAK 相当于登录密码。

5. 单击测试连通性。

6. 测试连通性通过后,单击确定。

3 创建同步任务

本节将新建一个同步节点drds2ads并进行配置,以把drdst_app表中的数据写入到新环境ads的数据库中。具体操作如下:

1. 新建同步节点drds2ads,如下图所示:

bed589db9d0a3dc1813c0674f8062193cb762e9d

fbcde91a7726922bb58761d7211edee0e821accb

2. 选择数据来源和目标

在数据同步任务配置过程中,首先需选择数据源和目标(新增数据源请联系项目管理员),并支持模糊匹配查找数据源和目标以及表名。当选择了源头和目标,其选项框末尾将显示对应数据源或目标类型。

e976a9976e6b2b1ca6665f3b6b824ca1dd2ef73d

3. 字段配置

需对字段映射关系进行配置,左侧源头表字段和右侧目标表字段为一一对应的关系。可批量编辑源表或宿表字段,通过此方式添加的表字段类型默认为空。

da2b7d5d6222c4389ef8ff93c672aae9b93ac245

4. 数据抽取和加载控制

数据抽取控制即数据抽取的过滤条件,而数据加载控制即数据写入时的规则。不同场景的数据同步任务配置界面不同。DRDS到ADS的数据同步任务类型的配置界面如下所示:

bb12f8ee810ef48abc8548dc887bdc9e5b9f3b96

l  抽取控制,可参考相应的SQL语法填写where过滤语句(不需要填写where关键字),该过滤条件将作为增量同步的条件。

说明:

where条件即针对源头数据筛选条件,根据指定的column、table、where条件拼接SQL进行数据抽取。利用where条件可进行全量同步和增量同步,具体说明如下:

    全量同步

第一次做数据导入时通常为全量导入,可不用设置where条件;如只是在测试时,避免数据量过大,可将where条件指定为limit10。

    增量同步

增量导入在实际业务场景中,往往会选择当天的数据进行同步,通常需要编写where条件语句,请先确认表中描述增量字段(时间戳)为哪一个。如tableA描述增量的字段为creat_time,那么在where条件中编写creat_time>${yesterday},在参数配置中为其参数赋值即可。

l  导入模式,支持批量导入(Load Data)和实时插入(Insert Ignore)两种模式。

l  清理规则:

▬写入前清理已有数据:导数据之前,清空表或者分区的所有数据,相当于 insert overwrite

▬写入前保留已有数据:导数据前不清理任何数据,每次运行数据都是追加的,相当于insert into

5. 流量与出错控制

流量与出错控制用来配置作业速率上限和脏数据检查规则,如下图所示:

d245092cc42fd7cb0ce5f34e7bfe8c287d9048a1

l  作业速率上限:是指配置的当前数据同步作业可能达到的最高速率,其最终实际速率受网络环境、数据库配置等的影响,支持最大为10MB/s

以下为脏数据检查规则,可配置一个或两个,两个规则之间的关系:

l  当出错记录数超过:当脏数据数量(即错误记录数)超过所配置的个数时,该数据同步任务结束。

l  错误百分比达到:当脏数据数量(即错误记录数)超过所配置的百分比时,该数据同步任务结束。

4 设置周期和依赖

大数据开发套件提供了强大的调度能力,支持按照时间、依赖关系的任务触发机制,支持每日千万级别的任务按照 DAG 关系准确、准时运行。支持分钟、小时、天、周和月多种调度周期配置。具体操作步骤如下:

1. 配置同步任务的调度属性

进入 数据开发 > 任务开发 页面,双击打开需要配置的同步任务(drds2drds),单击右侧的 调度配置,即可为任务配置 调度属性,如下图所示:

2ba3d57656df43f684145917f459e24f4bacebe9

配置参数说明:

l  调度状态:勾选后即为暂停状态。

l  生效日期:任务的有效日期,根据自身需求进行设置。

l  调度周期:任务的运行周期(月/周/天/小时/分钟),比如以周为调度周期进行调度。

l  具体时间:任务运行的具体时间,比如将任务配置为在每周二的凌晨2点开始运行。

2. 配置同步任务的依赖属性

配置完同步任务的调度属性后,展开依赖属性继续配置,如下图所示:

d39ca157873f150e1b8c0b0e3c6909e067e00313

依赖属性中可以配置任务的上游依赖,表示即使当前任务的实例已经到定时时间,也必须等待上游任务的实例运行完毕才会触发运行。

如果没有配置上游任务,则当前任务默认由项目本身触发运行,故在调度系统中,该任务的上游默认为 project_start 任务。每一个项目中默认会创建一个 project_start 任务作为根任务。

3. 提交同步任务

保存同步任务drds2drds,单击提交,将其提交到调度系统中,如下图所示:

7af4982fe6e6aa22c33228058ea842b1bd33585e

任务只有提交到调度系统中,才会从第二天开始自动按照调度属性配置的周期在各时间点生成实例,然后定时运行。

注意: 如果是 23:30 以后提交的任务,则调度系统从第三天开始才会自动周期生成实例并定时运行。

5 运维及日志排错

在之前的操作中,假如您配置了每周二凌晨 2 点执行同步任务,将任务提交后需要到第二天才能看到调度系统自动执行的结果,那么如何确认实例运行的定时时间和相互依赖关系符合预期呢?大数据开发套件提供了测试运行和周期运行等触发方式,详情如下:

l  测试运行:手动触发方式。如果您仅需确认单个任务的定时情况和运行,建议使用测试运行。

l  周期运行:系统自动触发方式。提交成功的任务,调度系统在第二天0点起会自动生成当天不同时间点的运行实例,并在定时时间达到时检查各实例的上游实例是否运行成功,如果定时时间已到并且上游实例全部运行成功,则当前实例会自动触发运行,无需人工干预。

注意:

手动触发和自动调度的调度系统根据周期生成实例的规则一致:

l  无论周期选择天/小时/分钟//周,任务在每一个日期都会有对应实例生成。

l  仅在指定日期的对应实例会定时运行并生成运行日志。

l  非指定日期的对应实例不会实际运行,而是在满足运行条件时将状态直接转换为成功,因此不会有运行日志生成。

本节将为您说明如何实现以上两种触发方式,具体操作见下文。

5.1 测试运行

1. 单击工作流页面中的测试运行按钮,如下图所示:

7af4982fe6e6aa22c33228058ea842b1bd33585e

2. 根据跳转页面的提示,单击确认运行,如下图所示:

a163b3b9c907c50f380e8c9ff11c38d2ea760fc7

556d767630833d558f2f070ed361291ff723b1ef

0192450c33d6335a20c54e858dfaefd211f29f06


3.单击前往运维中心查看任务运行状态,如下图所示:

0ef3d16b670ea52c5c7b11c68a428989bca82f42

4. 查看测试实例的信息及运行日志

进入 测试 页面,右击任务实例名称,可以查看定时时间/配置属性/代码等信息,也可以查看运行日志,如下图所示:

444421270d86039ea3c1c0a653783aaad6355e08

说明:

测试运行是手动触发任务,只要定时时间到了,立即运行,无视实例的上游依赖关系。

若同步任务只需要运行一次,测试运行完成后在调度属性中将调度状态选为暂停即可。

5.2 周期自动运行

周期自动运行,由系统根据所有任务的调度配置自动触发,故页面没有操作入口。查看实例信息和运行日志有以下两种:

(1)进入运维中心>任务运维页面,单击运维,选择业务日期或运行日期等参数,搜索drds2drds任务对应的实例,然后右键查看实例信息,并可对已调度起的实例任务进行日常的运维管理,如对任务进行终止、重跑、修复等操作。如下图所示:

7d60cd2eb0ee5548b5c699d17e3d9e8b5c6d49bc

(2)查看运行日志;单节点任务实例、工作流任务节点右击展开的下拉菜单中可以选择查看当前选中对象在执行过程中的相关日志信息。如下图所示:

b6e2399cdb618d42f4946c5c627a8f7b3a7c1347

0ed59dc87bead12c61fe2527c525fc1a6ff49856

说明:

l  若任务的实例初始状态为未运行,当定时时间到达时,调度系统会检查这个实例的全部上游实例是否运行成功。

l  只有上游实例全部运行成功并且定时时间到达的实例,才会被触发运行。

l  处于未运行状态的实例,请确认上游实例已经全部成功且已到定时时间。

相关实践学习
快速体验PolarDB开源数据库
本实验环境已内置PostgreSQL数据库以及PolarDB开源数据库:PolarDB PostgreSQL版和PolarDB分布式版,支持一键拉起使用,方便各位开发者学习使用。
目录
相关文章
|
SQL 分布式计算 关系型数据库
PolarDB-X 1.0-用户指南-数据导入导出-数据迁移或同步方案概览
本文汇总了PolarDB-X 1.0支持的数据迁移或同步的方案。
337 0
|
数据采集 新零售 算法
基于DRDS的千万级会员数据迁移方案设计
某集团进行数字化转型,围绕着新零售业务中台能力为核心,数据中台为底座,搭建统一会员中心体系,实现会员的统一管理与打标,精准营销,提升经营效率。 通过对各个域的会员数据进行清洗,并迁移到阿里云DRDS数据库中,从而完成对会员数据的初始化工作。
|
分布式计算 关系型数据库 分布式数据库
DRDS到ODPS数据迁移指南
数据同步节点任务是阿里云大数据平台对外提供的稳定高效、弹性伸缩的数据同步云服务。DRDS到ODPS数据迁移采用CDP的方式同步数据。 开始DRDS到ODPS数据迁移 1.     创建源和目标库表结构 初次在同步数据前需要在源库和目标库创建好相应的表结构。
6840 0
|
6月前
|
关系型数据库 分布式数据库 数据库
【PolarDB开源】PolarDB-X源码解读:分布式事务处理机制揭秘
【5月更文挑战第20天】PolarDB-X,PolarDB家族的一员,专注于大规模分布式事务处理,采用2PC协议保证ACID特性。源码解析揭示其通过预提交、一致性快照隔离和乐观锁优化事务性能,以及利用事务日志进行故障恢复。深入理解其事务处理机制对开发者掌握分布式数据库核心技术至关重要。随着开源社区的发展,更多优化方案将涌现,助力构建更强大的分布式数据库系统。
223 6
|
4月前
|
关系型数据库 分布式数据库 PolarDB
PolarDB产品使用问题之如何基于Docker进行PolarDB-X单机模拟部署
PolarDB产品使用合集涵盖了从创建与管理、数据管理、性能优化与诊断、安全与合规到生态与集成、运维与支持等全方位的功能和服务,旨在帮助企业轻松构建高可用、高性能且易于管理的数据库环境,满足不同业务场景的需求。用户可以通过阿里云控制台、API、SDK等方式便捷地使用这些功能,实现数据库的高效运维与持续优化。
PolarDB产品使用问题之如何基于Docker进行PolarDB-X单机模拟部署
|
4月前
|
Oracle 关系型数据库 分布式数据库
PolarDB产品使用问题之使用pxd安装PolarDB-X出现报错,该怎么办
PolarDB产品使用合集涵盖了从创建与管理、数据管理、性能优化与诊断、安全与合规到生态与集成、运维与支持等全方位的功能和服务,旨在帮助企业轻松构建高可用、高性能且易于管理的数据库环境,满足不同业务场景的需求。用户可以通过阿里云控制台、API、SDK等方式便捷地使用这些功能,实现数据库的高效运维与持续优化。
|
4月前
|
Kubernetes 关系型数据库 分布式数据库
PolarDB产品使用问题之PolarDB-X的架构形态有什么区别
PolarDB产品使用合集涵盖了从创建与管理、数据管理、性能优化与诊断、安全与合规到生态与集成、运维与支持等全方位的功能和服务,旨在帮助企业轻松构建高可用、高性能且易于管理的数据库环境,满足不同业务场景的需求。用户可以通过阿里云控制台、API、SDK等方式便捷地使用这些功能,实现数据库的高效运维与持续优化。
|
4月前
|
关系型数据库 分布式数据库 PolarDB
PolarDB产品使用问题之原PolarDB-X集群无法连接且Docker容器已经被删除,如何恢复数据
PolarDB产品使用合集涵盖了从创建与管理、数据管理、性能优化与诊断、安全与合规到生态与集成、运维与支持等全方位的功能和服务,旨在帮助企业轻松构建高可用、高性能且易于管理的数据库环境,满足不同业务场景的需求。用户可以通过阿里云控制台、API、SDK等方式便捷地使用这些功能,实现数据库的高效运维与持续优化。
|
4月前
|
运维 关系型数据库 MySQL
PolarDB产品使用问题之PolarDB MySQL版和PolarDB-X的区别是什么
PolarDB产品使用合集涵盖了从创建与管理、数据管理、性能优化与诊断、安全与合规到生态与集成、运维与支持等全方位的功能和服务,旨在帮助企业轻松构建高可用、高性能且易于管理的数据库环境,满足不同业务场景的需求。用户可以通过阿里云控制台、API、SDK等方式便捷地使用这些功能,实现数据库的高效运维与持续优化。