《Greenplum5.0 最佳实践》 迁移数据使用Gptransfer

简介: 使用 gptransfer 完成 GPDB 集群间数据迁移任务

使用 Gptransfer 命令迁移一个 Greenplum 数据库集群中的数据到另一台集群(metradata, data)

gptransfer 可以迁移数据库中的全部数据或者部分选择的表到另外一台 Greenplum 中。 源数据库和目的数据库可以在同一个集群中,也可以在不同的集群中。 gptransfer 所有的段数据库是并行的移动数据的,使用 gpfdist 可以获得更高的数据移动效率。

gptransfer 处理这数据的启动和执行。 参与的集群必须存在。同时确保集群间的访问时可以用过 SSH 访问实现的。网络互通。

gptranfer 参数包括处理一个数据库和多个数据库参数, 处理一张表和多张表参数。 全部的数据集迁移包括 schema, table date, indexes, views, roles, user-defined fuctions , resource queues. 参数配置文件 postgres.conf, ph_hba.conf, 必须使用超级用户在源与目的数据库之间执行操作。使用外部命令 gppkg 安装 gptransfer. 就像安装 MADLIB 一样。

gptransfer 是如何工作的

gptransfer 是通过使用对外部表的读写操作试下你的,底层使用的工具是greenplum提供的 gpfdist 实现并行加载数据, 管道用来从源数据到目的数据端传输数据。 从源数据中选择需要向目的数据段可写外部表的数据,执行插入操作。在目的段数据库中选择表和数据库,从外部表将数据导入到本地。这可读可写的外部表是用过命名管道去访问源数据库的, 每一个命名管道都有一个 gpfdist 进程存在,实现从源数据到目的数据库。
gptransfer 通过批处理的方式编排数据, 每移动一张表, 他都要经历如下的任务:

  1. 在源数据库中创建可写的外部表
  2. 在目的数据库中创建可读的外部表
  3. 在源数据集群中的每一个段数据库上,创建一个命名管道和 gptranfer 进程。
  4. 在源数据库段执行 SELECT INTO 语句,将源数据库中的数据加载到可写的外部表中
  5. 在目的数据库中执行 SELECT INTO 语句, 从可读的外部表中加载数据到数据库中的表中
  6. 选择有效的 MD5 参数,用来确定导入的数据在源数据库与目的数据库之间没有任何问题
  7. 清空外部表, 命名管道, gpfdist 进程

前提准备

  1. gptranfer 只适合Greenplum数据库集群, HAWQ 并不支持
  2. Greenplum 的版本必须是在 4.2 或 以上
  3. 源与目的的数据库集群必须要有 gptransfer
  4. 目的数据库集群中的段数据库数量必须大于等于源数据库中段的数量。如果满足这个条件,数据迁移会非常的慢
  5. 集群间的节点必须是可以连通的
  6. 可以使用 ssh 连接各个及诶到哪。 我们可以使用 gpssh_exkeys 命令来交换秘钥,在集群之间

快模式和慢模式

同时运行多个 gptransfer , 可以更快的完成数据迁移。原理就是启动更多的 gpfdist 进程,这种模式叫做快模式
当目的数据库集群中的段数据库数量大于源数据库集群段数据库很多时,可以这个干。

当目的数据库集群中的段数库数量小于源数据库集群段数据库时, 启动的 gptransfer 数量就会很少, 同时代表着 gpfdist 进程数量的减少。这就意味着将会花费着更多的时间。就是慢模式

批量处理的大小和子批量处理的大小

gpftransfer 的参数用来控制执行并行的读,这里有两个执行参数, --batch-size, --sub-batch-size; 其中 --batch-size 参数用来确定在一个批处理中处理多少表。 默认值是2, 这就意味着在任何进程中一次处理两张表。最小的批处理的值是1, 最大的值是10.
--sub-batch-size 用来确定在转移数据时,子进程的最大并行数量。默认值是25, 最大值是50.批处理的值和子进程的值的乘积就是数据迁移的并行值。如果都按着默认的值设置, 那么 gpftranser 就是50个任务并行。 每一个线程都是 Python 和 内存,所以,如果值设置的很大就会导致内存溢出的问题。所以这个值,我们要根据自己的实际环境来处理。

节点的准备工作

Greenplum 集群中的各个节点间实现无密通信, 实现 ssh 通信。gpftranser 要求源与目的数据库集群间都要装有该工具。
首先,确保网络环境正常。然后确定有一个 host file 用来存储全部需要使用到无密码传输的节点名,最后使用 gpssh-exkeys 交换秘钥。

这个映射文件 host file 里面包含了源集群中的全部节点名,它用来实现集群间的节点通信。 在Gptransfer 中使用的参数是
--source-map-file=host_map_file 参数。 这个参数是使用 gptransfer 在集群间copy数据使用的


host_name,host1_ip_addr
host_name,host2_ip_addr

该文件使用IP地址而不是主机名来避免集群之间名称解析的问题。

缺点

gptransfer 仅仅可以移动用户数据库。对于数据库 poostgresql, template0, template1 数据库不能被移动。超级用户手动移动配置文件和使用 gppkg 安装外部应用,在目的数据中。

目的数据库集群最好有比源数据库集群更多的段数据库,不然移动数据会非常慢。
对于移动小表或者空表时, gptransfer 也会很慢, 这是为什么呢?主要是因为,时间都花费在建议读写外部表,进程间的连接等上面。

全模式 和 表模式

当使用参数 --full 时, gptransfer 会拷贝全部的 tables, views, indexes, roles, user-defined function, resource queneue 从源数据库到目的数据库。将要从源数据库移动的数据库必须不存在在目的数据库集群中。如果 gptransfer 报出如下错误时

去独立的拷贝某一个表,需要强调使用的参数是 -t, 如果只想拷贝一个表的一部分数据使用的是 -f 参数。 当拷贝表时, 目的数据库必须存在。拷贝表使用如下格式 database.schema.table; 这个表的 索引 ,表结构, 表中的数据都会被拷贝。

如果目的数据库已经存在该表, 在尝试迁移源数据库的表将会遇到如下错误


想要跳过这个错误使用如下参数
--skip-existing, --truncate 或者 --drop
接下来的表格用来显示全拷贝模式与表拷贝模式
object Full Mode Table Mode
Data Yes Yes
Indexes Yes Yes
Roles Yes No
Functions Yes No
Resource Queues Yes No
postgres.conf No No
pg_hba.conf No No
gppkg No No

使用如下参数在全拷贝模式下,只会拷贝表结构,不会拷贝数据
gptransfer --full --schema-only -d
在接下来使用表模式的时候,需要注意可能要用到表模式的参数 --truncate OR --drop 参数

使用参数 -x 可以给表加锁。直到验证和数据拷贝完成,才会释放排他锁。

验证

默认情况下, gptransfer 并不会去验证迁移完成的数据。 我们可以使用参数 --validate=type 选项来设置验证。
type 的类型可以是
count - 用来比较源数据与目的数据的记录数量是否一致
md5 - 对源数据的表和目的数据的表排序, 然后一行一行比较。检查不同

在使用 gptransfer 迁移数据的时候,要确保加上参数 -x 来确保所有的对源表有排他锁。因为在迁移数据时,表中的记录发生该表将会验证失败。

迁移失败

迁移失败并不会一起 gptransfer 任务中止。 当一个迁移任务失败的时候。 gptransfer 就会将错误信息加载到失败的gptransfer文件中。 在 gptransfer 会话中, 它会提供到底哪里出错了, 如下例子


[WARNING] : - Some tables failed to transfer. A list of these tables

正如上面提示的警告信息, 我们可以使用 -f 参数去重新的请求文件格式

最佳实践

对于大数据量的表的迁移使用 gptransfer 是非常好的选择, 对于空表和小数据量的表而言, 迁移的准备工作和后期的清理公共,会显示的数据迁移的非常的慢。那么最好的做法就是使用 gptransfer 去迁移大数据量的表,对于小数据量的表使用其他的方法。

  1. 在开始迁移数据时, 在目的数据库集群备份源数据的schema. 不要去使用 gptransfer 中的参数 --full -schema-only , 可以使用如下命令来完成上述工作

    1.1 使用 *gpsd* (Greenplum Statistics Dump) 支持工具。所以要在目的数据库集群上运行完 *ANALYZE* 命令后, 在使用 *gpsd* 命令
    1.2 使用 PostgreSQL 的 pg_dump OR pg_dumpall 工具, 使用参数是 *-shcma-only*
    1.3  使用 DDL 脚本手动重新创建也可以
    
  2. 将要迁移的大表分割为大类和小类, 使用自己制定的标准。举个例子, 我们可以将大表划分为多个小表, 每一个表含有的记录熟练是 1千万条记录或者是每个表有1GB大小
  3. 对于迁移小表数据, 建议使用 COPY 命令。
    这样可以循环使用之前写的脚本文件。
  4. 使用 gptransfer 用来批量迁移数据文件

    4.1 最好使用 *fast* 模式。 即目的数据库有更多的段数据库
    4.2 在迁移数据之前,先把索引给删除了
    4.3 使用 *-t OR -f* 参数,迁移数据, 不要使用全模式迁移数据。
    4.4 在生产环境中,先测试一下数据迁移,在实际去执行。可以试验如下参数 *--batch-size* 和 *--sub-batch-size* 参数
    4.5 如果在目的段数据库中已经存了模式信息, 记得使用 *--skip-existing* 参数
    4.6 使用完全限定的表名。注意 (.) (') (") 引起的问题
    4.7  如果决定使用了校验参数 *--validation* 参数, 注意要加上排他锁在源数据库的表上 *-x* 参数
    
  5. 在所有的表都迁移完成后, 执行如下的操作

     5.1 检查和更改错误的 *gptransfer* 任务
     5.2 重新为表创建索引
     5.3 明确 *roles* , *functions* , *resource queues* 等, 在目的数据库中。 
     5.4 复制 *postgresql.conf* 和 *pg_hba.conf* 参数文件从源数据库到目的数据库 
     5.5 使用 *gppkg* 重新安装扩展文件
    

参考文献

">https://gpdb.docs.pivotal.io/500/best_practices/gptransfer.html>

目录
相关文章
|
7月前
|
存储 监控 安全
360 企业安全浏览器基于阿里云数据库 SelectDB 版内核 Apache Doris 的数据架构升级实践
为了提供更好的日志数据服务,360 企业安全浏览器设计了统一运维管理平台,并引入 Apache Doris 替代了 Elasticsearch,实现日志检索与报表分析架构的统一,同时依赖 Doris 优异性能,聚合分析效率呈数量级提升、存储成本下降 60%....为日志数据的可视化和价值发挥提供了坚实的基础。
360 企业安全浏览器基于阿里云数据库 SelectDB 版内核 Apache Doris 的数据架构升级实践
|
7月前
|
关系型数据库 MySQL Apache
**ADB MySQL湖仓版能够平滑迁移到湖仓**,阿里云提供了相应的迁移工具和服务来简化这一过程。
**ADB MySQL湖仓版能够平滑迁移到湖仓**,阿里云提供了相应的迁移工具和服务来简化这一过程。
344 2
|
7月前
|
数据库 OceanBase 索引
OceanBase迁移服务(OMS)支持不同大小和复杂度的表的迁移
【2月更文挑战第25天】OceanBase迁移服务(OMS)支持不同大小和复杂度的表的迁移
227 3
|
7月前
|
存储 SQL 关系型数据库
TiDB的优势:为何选择TiDB作为您的数据库解决方案
【2月更文挑战第25天】随着数据规模的不断增长和业务需求的日益复杂化,现代企业对数据库系统的扩展性、高可用以及分布式处理能力提出了更高的要求。TiDB作为一个新型的开源分布式数据库,以其独特的设计理念与卓越的技术特性,在众多数据库解决方案中脱颖而出。本文将深入剖析TiDB的核心优势,探讨其如何帮助企业从容应对海量数据挑战、实现无缝水平扩展、保障服务高可用性,并提供灵活一致的事务支持。
|
7月前
|
Apache 流计算 OceanBase
手把手教你实现 OceanBase 数据到阿里云数据库 SelectDB 内核版 Apache Doris 的便捷迁移|实用指南
本文介绍了如何将数据从 OceanBase 迁移到阿里云数据库 SelectDB 内核版 Apache Doris。提供 3 种数据同步方法 1. 使用 DataX,下载 DataX 并编写配置文件,通过 OceanBaseReader 和 DorisWriter 进行数据迁移。 2. 利用 Apache Doris 的 Catalog功 能,将 OceanBase 表映射到 Doris 并插入数据。 3. 通过Flink CDC,设置 OceanBase 环境,配置 Flink 连接器,实现实时数据同步。
手把手教你实现 OceanBase 数据到阿里云数据库 SelectDB 内核版 Apache Doris 的便捷迁移|实用指南
|
4月前
|
SQL 关系型数据库 MySQL
使用OceanBase进行大规模数据迁移的最佳实践
【8月更文第31天】随着业务的不断扩展,数据迁移成为了企业日常运营中不可避免的任务之一。对于那些正在从传统的数据库系统向分布式数据库系统过渡的企业来说,数据迁移尤为重要。OceanBase 是一个由阿里巴巴集团开发的高性能分布式关系数据库,它以其高可用性、水平扩展能力和成本效益而闻名。本文将探讨如何使用 OceanBase 进行大规模数据迁移,并提供相关的最佳实践和代码示例。
382 1
|
5月前
|
SQL Cloud Native 关系型数据库
云原生数据仓库使用问题之如何实现adb到adb的整库迁移或同步
阿里云AnalyticDB提供了全面的数据导入、查询分析、数据管理、运维监控等功能,并通过扩展功能支持与AI平台集成、跨地域复制与联邦查询等高级应用场景,为企业构建实时、高效、可扩展的数据仓库解决方案。以下是对AnalyticDB产品使用合集的概述,包括数据导入、查询分析、数据管理、运维监控、扩展功能等方面。
|
7月前
|
存储 关系型数据库 分布式数据库
【PolarDB开源】PolarDB高可用架构解析:确保业务连续性的关键设计
【5月更文挑战第22天】阿里云PolarDB是一款高可用、高性能的云原生数据库,采用分布式共享存储架构实现计算与存储分离。通过主从复制保证数据实时同步,当主节点故障时,从节点能快速接管。此外,PolarDB提供自动故障转移和数据备份恢复功能,确保业务连续性和数据安全性。一个简单的Python SDK使用示例展示了查询数据的过程。总之,PolarDB通过多种机制保障了企业在异常情况下的服务稳定和数据完整性。
280 5
|
7月前
|
存储 分布式计算 关系型数据库
云原生数据仓库产品使用合集之ADB如何确保数据库的可用性
阿里云AnalyticDB提供了全面的数据导入、查询分析、数据管理、运维监控等功能,并通过扩展功能支持与AI平台集成、跨地域复制与联邦查询等高级应用场景,为企业构建实时、高效、可扩展的数据仓库解决方案。以下是对AnalyticDB产品使用合集的概述,包括数据导入、查询分析、数据管理、运维监控、扩展功能等方面。
|
7月前
|
存储 监控 负载均衡
TiDB数据迁移工具TiCDC:高效同步的引擎
【2月更文挑战第28天】TiCDC是TiDB生态中一款强大的数据迁移工具,它专注于实现TiDB增量数据的实时同步。通过解析上游TiKV的数据变更日志,TiCDC能够将有序的行级变更数据输出到下游系统,确保数据的实时性和一致性。本文将深入探讨TiCDC的原理、架构、应用场景以及使用方式,帮助读者更好地理解和应用这一工具,实现高效的数据迁移和同步。