阿里云城市服务商分享怎么使用DTS迁移PPAS数据

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,高可用系列 2核4GB
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
简介: 使用数据传输服务(DTS)将本地数据库迁移到 RDS for PPAS,可以实现应用不停服务的情况下,平滑完成数据库的迁移工作。迁移过程中,对本地的 Oracle 数据库没有影响。那么如何操作呢,湖北区域阿里云城市服务商捷讯技术告诉您怎么使用怎么使用DTS迁移PPAS数据
  使用数据传输服务(DTS)将本地数据库迁移到 RDS for PPAS,可以实现应用不停服务的情况下,平滑完成数据库的迁移工作。迁移过程中,对本地的 Oracle 数据库没有影响。那么如何操作呢,阿里云城市服务商捷讯技术告诉您怎么使用怎么使用DTS迁移PPAS数据
  首先我们来了解一下DTS数据迁移的背景,DTS 数据迁移支持 PPAS 的结构迁移和全量迁移。

结构迁移:DTS 会将迁移对象的结构定义迁移到目标实例。目前 DTS 支持结构迁移的对象有:表、视图、同义词、触发器、存储过程、存储函数、包、自定义类型。

全量迁移:DTS 会将本地数据库迁移对象的数据全部迁移到目标实例。如果迁移过程中,本地 Oracle 数据库有数据写入的话,那么这些增量数据不一定能够被迁移到 RDS 中。所以,如果要保证数据一致性,那么尽量选择在业务低峰期进行全量迁移。

但将 PPAS 本地数据库迁移到 RDS 上有以下限制:

1)迁移过程中,不支持 DDL 操作

2)不支持物化视图的迁移

3) 结构迁移时,会将 reverse index 迁移成普通索引

4)结构迁移时,会将位图索引迁移成普通索引

5)结构迁移时,会将分区索引迁移成在每个分区上单独创建的索引

那么我们完成数据库迁移的前提条件是已完成 RDS 实例数据库的准备。下面我们来按一下具体的操作,本例以有公网 IP 的本地数据库迁移到 RDS 上为例。

第一步:准备本地数据

在正式迁移之前,需要先在本地数据库和 RDS 实例中创建迁移账号,并在 RDS 实例中创建要迁移的数据库,并将要迁移的数据库的读写权限授权给迁移账号。不同的迁移类型需要不同的权限,如下表所示。
_

1、通过 PostgreSQL 客户端,在本地数据库中创建迁移账号。

CREATE USER username IDENTIFIED BY password;

参数说明:

username:要创建的账号

password:该账号的登录密码

2、在本地数据库中给迁移账号授权,本地数据库中迁移账号的权限要求请参见上表。

GRANT privileges ON tablename TO username;

参数说明:

      privileges:该账号的操作权限,如 SELECT、INSERT、UPDATE 等。如果要授权该账号所有权限,则使用ALL

      Tablename :表名。如果要授权该账号所有的表权限,则使用通配符*

Username :要授权的账号名

第二步:正式迁移操作

1、在RDS管理控制台上单击迁移数据库,进入DTS,如下图所示。
rds_
数据库控制台
rds_
2、单击创建在线迁移任务,进入页面,如下图所示。

数据迁移

3、输入任务名称、本地数据库信息和目标数据库信息,单击授权白名单并进入下一步,如下图所示。根据系统指示步骤一步步完成。

4、选择迁移类型,并在迁移对象中选择要迁移的对象,将要迁移的对象放入已选择中,单击预检查并启动,如下图所示。

注意:

1、选择结构迁移时,如果目标 RDS 实例的数据库 mydatabase 中,不存在跟本地数据库迁移账号同名的 Schema,那么 DTS 会自动创建同名 Schema, 且 Schema 的 Owner 为迁移账号。

2、数据迁移只会将本地数据库的数据(结构)复制一份到目标数据库,并不会对本地数据库数据(结构)造成影响。

3、数据迁移过程中,不支持 DDL 操作,如进行 DDL 操作可能导致迁移失败。

4、DTS 增量迁移的时间最长支持 15 天,如果超过 15 天不停止任务,系统资源可能被回收。

如果要修改迁移对象在目标数据库上的名字,可以在 已选择 列表右侧单击编辑,修改已选择的对象名称。

预检查一般有两种结果,有一项或几项不通过或通过,以下以预检查不通过为例进行描述。

如果系统显示预检查结果有不通过的项,单击检测结果为失败的检测项后面的 !,查看失败详细信息,根据失败详细信息完成错误排查。错误排查完毕后,在迁移任务列表页面,选择当前迁移任务,单击启动再次完成迁移。

第三步、系统预检通过后

  系统预检都通过后,直接点击确定。后续的操作便是因迁移账号拥有读写权限,为了保证本地数据库安全,需要在数据迁移完成后,删除本地数据库和 RDS 实例中的迁移账号。

系统预检查通过后,单击 确定,自动进行迁移任务,如下图所示。
_
系统预检查

第四步:后续操作

因迁移账号拥有读写权限,为了保证本地数据库安全,请在数据迁移完成后,删除本地数据库和 RDS 实例中的迁移账号。
相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
MySQL数据库入门学习
本课程通过最流行的开源数据库MySQL带你了解数据库的世界。   相关的阿里云产品:云数据库RDS MySQL 版 阿里云关系型数据库RDS(Relational Database Service)是一种稳定可靠、可弹性伸缩的在线数据库服务,提供容灾、备份、恢复、迁移等方面的全套解决方案,彻底解决数据库运维的烦恼。 了解产品详情: https://www.aliyun.com/product/rds/mysql 
相关文章
|
7月前
|
SQL 容灾 关系型数据库
阿里云DTS踩坑经验分享系列|DTS打通SQL Server数据通道能力介绍
SQL Server 以其卓越的易用性和丰富的软件生态系统,在数据库行业中占据了显著的市场份额。作为一款商业数据库,外部厂商在通过解析原生日志实现增量数据捕获上面临很大的挑战,DTS 在 SQL Sever 数据通道上深研多年,提供了多种模式以实现 SQL Server 增量数据捕获。用户可以通过 DTS 数据传输服务,一键打破自建 SQL Server、RDS SQL Server、Azure、AWS等他云 SQL Server 数据孤岛,实现 SQL Server 数据源的流动。
385 0
阿里云DTS踩坑经验分享系列|DTS打通SQL Server数据通道能力介绍
|
10月前
|
SQL 关系型数据库 MySQL
阿里云DTS踩坑经验分享系列|DTS SelectDB链路最佳实践
大数据时代背景下,高效的数据流转与实时分析能力对于企业的竞争力至关重要。阿里云数据传输服务DTS与SelectDB联合,为用户提供了简单、实时、极速且低成本的事务数据分析方案。用户可以通过 DTS 数据传输服务,一键将自建 MySQL/PostgreSQL、RDS MySQL/PostgreSQL、PolarDB for MySQL/PostgreSQL 数据库,迁移或同步至阿里云数据库 SelectDB 的实例中,帮助企业在短时间内完成数据迁移或同步,并即时获得深度洞察。
492 3
|
10月前
|
存储 数据采集 监控
阿里云DTS踩坑经验分享系列|SLS同步至ClickHouse集群
作为强大的日志服务引擎,SLS 积累了用户海量的数据。为了实现数据的自由流通,DTS 开发了以 SLS 为源的数据同步插件。目前,该插件已经支持将数据从 SLS 同步到 ClickHouse。通过这条高效的同步链路,客户不仅能够利用 SLS 卓越的数据采集和处理能力,还能够充分发挥 ClickHouse 在数据分析和查询性能方面的优势,帮助企业显著提高数据查询速度,同时有效降低存储成本,从而在数据驱动决策和资源优化配置上取得更大成效。
374 9
|
11月前
|
弹性计算 安全 容灾
阿里云DTS踩坑经验分享系列|使用VPC数据通道解决网络冲突问题
阿里云DTS作为数据世界高速传输通道的建造者,每周为您分享一个避坑技巧,助力数据之旅更加快捷、便利、安全。本文介绍如何使用VPC数据通道解决网络冲突问题。
398 0
|
NoSQL 安全 容灾
阿里云DTS踩坑经验分享系列|Redis迁移、同步
阿里云数据传输服务DTS在帮助用户迁移Redis数据、同步数据时,在某些复杂场景下会出现报错,或者源库与目标库数据不一致的问题,给用户带来困扰。本文介绍了DTS Redis到Redis迁移、同步过程中的典型问题,以帮助用户更好地使用DTS。
1046 2
|
NoSQL MongoDB 数据库
DTS 的惊天挑战:迁移海量 MongoDB 数据时,捍卫数据准确完整的生死之战!
【8月更文挑战第7天】在数字化时代,大数据量的MongoDB迁移至关重要。DTS(数据传输服务)通过全面的数据评估、可靠的传输机制(如事务保证一致性)、异常处理(如回滚或重试),以及迁移后的数据校验来确保数据准确无损。DTS还处理数据转换与映射,即使面对不同数据库结构也能保持数据完整性,为企业提供可靠的数据迁移解决方案。
233 2
|
关系型数据库 MySQL 数据挖掘
阿里云 SelectDB 携手 DTS ,一键实现 TP 数据实时入仓
DTS 作为阿里云核心的数据交互引擎,以其高效的实时数据流处理能力和广泛的数据源兼容性,为用户构建了一个安全可靠、可扩展、高可用的数据架构桥梁。阿里云数据库 SelectDB 通过与 DTS 联合,为用户提供了简单、实时、极速且低成本的事务数据分析方案。用户可以通过 DTS 数据传输服务,一键将自建 MySQL / RDS MySQL / PolarDB for MySQL 数据库,迁移或同步至阿里云数据库 SelectDB 的实例中,帮助企业在短时间内完成数据迁移或同步,并即时获得深度洞察。
1412 3
阿里云 SelectDB 携手 DTS ,一键实现 TP 数据实时入仓
|
SQL 分布式计算 监控
在数据传输服务(DTS)中,要查看每个小时源端产生了多少条数据
【2月更文挑战第32天】在数据传输服务(DTS)中,要查看每个小时源端产生了多少条数据
165 6
DTS数据传输延迟可能有多种原因
【1月更文挑战第16天】【1月更文挑战第79篇】DTS数据传输延迟可能有多种原因
474 2
|
存储 Java 数据库连接
云数据仓库ADB不管是jdbc写入或者dts同步,均会存在丢数据的情况?
云数据仓库ADB不知道是不是磁盘出问题了不管是jdbc写入或者dts同步,均会存在丢数据的情况?
161 2