热议话题回顾:数据上云和迁移中可能会遇到哪些问题-曾文旌

本文涉及的产品
云数据库 RDS SQL Server,基础系列 2核4GB
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云原生数据库 PolarDB PostgreSQL 版,标准版 2核4GB 50GB
简介: 数据上云和迁移中可能会遇到哪些问题 发布者:曾文旌-阿里数据库专家,关注PostgreSQL相关技术 大家在使用云上数据产品时,免不了要把线下数据迁移上云,或在云上各数据产品之间移动数据。在这个过程中,可能会遇到各种问题,比如在迁移上T的数据或在交易库与分析库之间迁移数据时,往往会无从下手。

数据上云和迁移中可能会遇到哪些问题

发布者:曾文旌-阿里数据库专家,关注PostgreSQL相关技术

大家在使用云上数据产品时,免不了要把线下数据迁移上云,或在云上各数据产品之间移动数据。在这个过程中,可能会遇到各种问题,比如在迁移上T的数据或在交易库与分析库之间迁移数据时,往往会无从下手。

我们围绕这些话题进行讨论:

1.各位都使用什么手段把数据上云或迁移数据?
2.在PostgreSQL、Greenplum数据迁移过程中碰到了哪些问题?你是如何解决的?
3.关于ApsaraDB家族的关系数据库PostgreSQL PPAS和分析数据库Greenplum,你有哪些问题或使用技巧?

【精彩互动】

   网友earoson :有没有反向迁移功能,下云有方案吗?

  • 曾文旌:这是个好问题,你可以下载我们每天的基础备份,在线下恢复。



     网友anderson_520 :请问,云上 mysql 中的数据怎么迁移到 gp 中进行分析?

  • 曾文旌:参考:https://yq.aliyun.com/articles/59917?spm=5176.8091938.0.0.leKWpm
  • 曾文旌 :我们开源的工具 mysql2pgsql 也可以做到,请关注 https://github.com/aliyun/rds_dbsync


     阿里专家德哥:物联网中往往会有大量的数据存在文件中,怎么将这类数据快速的导入Greenplum进行分析呢?

  • 德哥:物联网可能包含大量的GIS类型,JSON格式的数据。 文件的方式存储,前端可能会有流式或OLTP,但是从原始文件进数据仓库应该是比较高效的方式,比从前端OLTP数据库再ETL来得快。
  • idealities:物联网数据,是不是使用InfluxDB这种更合适?
  • 德哥:TS数据库的应用场景有限,物联网除了有时序属性,还有其他属性。这方面TS数据库是无法满足的。 通常需要多个数据库结合来使用。


网友pg搬运工:阿里云Greemplum怎么导入大量数据?

  • 曾文旌:参考 https://yq.aliyun.com/articles/31632?spm=5176.8091938.0.0.vAsfBW该方法适合大量数据导入


网友廖宙基:物联网中往往会有大量的数据存在文件中,怎么将这类数据快速的导入Greenplum进行分析呢?

  • 曾文旌:是的 oss_ext 能满足您的需求,只需要上传文件到 oss ,就能高速入库 greenplum


网友内心迩最重:云虚拟主机怎么安装数据库?

  • 曾文旌:虚拟主机上用户需要自己搭建和运维数据库,所以我们推出了RDS服务。
  • cnkfz:虚拟主机产品无法自行配置,买啥样就是啥样
  • 皓月大路:用ecs不就行了


网友ruby1986:打算业务系统上云,数据有几百G,业务间断只能有2到3小时,因为也许系统数据需要连续性,300g数据导入2小时左右可以搞定吗?什么办法更好一些mssql

  • 曾文旌:我们可以采用 全量迁移 + 增量迁移 的方法做到业务停的时间尽量短。
  • 只需要在最后等待增量追平主库和数据校验阶段停业务。


网友1277376506016181:如何实现将mysql数据复制到postgresql中,要求实时增量的。

  • 曾文旌:基于binlog解析的数据同步能做到实时异构迁移,尽请期待。


网友kylin_yang:怎么把本地的SQLServer数据库上传并导入到阿里云RDS?性能怎么样?管理复杂度如何?

  • 石沫 :目前从本地上云集中方式,请根据情形选择:

1. SQL Server Import/Export 工具逻辑导入,比较慢一点,并且有点麻烦,但利用的是SQL Server自己的工具

2. 使用SQL Server备份还原工具,SQL Server自己提供的工具,简单可靠,备份文件后,通过FTP上传文件,并且将数据库导入,备份文件时请选用压缩方式(可能存在版本不支持,取决于你的本地版本)

3. 利用阿里云DTS工具,这个实现全量与增量,具体使用届时可以联系相关同学支持

  • dbfun:阿里dts迁移


网友1261476420110162:请问在云数据和本地数据怎样能进行快速实时大数据量的进行交换。

  • 曾文旌:这个主要受限网络,如果网络质量能保证,我们有相关的服务能做到。目前一次性上云主要推荐全量+增量的方案。
网友1261476420110162:请问在云数据和本地数据怎样能进行快速实时大数据量的进行交换。
  • 曾文旌:这个主要受限网络,如果网络质量能保证,我们有相关的服务能做到。目前一次性上云主要推荐全量+增量的方案。

网友云中大鹏:毕竟东西在云上,不能占用网络带宽,不能锁表停库,那就只能做主从到另一台机器上了,然后另一台机器向下拷贝,来分离主库的使用了,维护成本会加大,不知道还有没有什么好的解决办法。
  • 曾文旌:尽量所有业务在云上完成。定期备份数据到线下。
话题原文点此进入>>

相关实践学习
基于MaxCompute的热门话题分析
Apsara Clouder大数据专项技能认证配套课程:基于MaxCompute的热门话题分析
目录
相关文章
|
SQL 分布式计算 资源调度
阿里云MaxCompute-Hive作业迁移语法兼容性踩坑记录
阿里云MaxCompute-Hive作业迁移语法兼容性踩坑记录
1705 0
|
2月前
|
SQL 缓存 分布式计算
【跨国数仓迁移最佳实践5】MaxCompute近线查询解决方案助力物流电商等实时场景实现高效查询
本系列文章将围绕东南亚头部科技集团的真实迁移历程展开,逐步拆解 BigQuery 迁移至 MaxCompute 过程中的关键挑战与技术创新。本篇为第5篇,解析跨国数仓迁移背后的性能优化技术。 注:客户背景为东南亚头部科技集团,文中用 GoTerra 表示。
122 8
|
3月前
|
SQL 分布式计算 运维
【跨国数仓迁移最佳实践3】资源消耗减少50%!解析跨国数仓迁移至MaxCompute背后的性能优化技术
本系列文章将围绕东南亚头部科技集团的真实迁移历程展开,逐步拆解 BigQuery 迁移至 MaxCompute 过程中的关键挑战与技术创新。本篇为第3篇,解析跨国数仓迁移背后的性能优化技术。 注:客户背景为东南亚头部科技集团,文中用 GoTerra 表示。
162 0
|
8月前
|
JSON 分布式计算 DataX
【YashanDB知识库】使用DataX工具迁移yashan数据到maxcompute
本文介绍使用崖山适配的DataX工具进行数据库迁移的方法,包括单表迁移和批量表迁移。单表迁移需配置json文件并执行同步命令;批量迁移则通过脚本自动化生成json配置文件并完成数据迁移,最后提供数据比对功能验证迁移结果。具体步骤涵盖连接信息配置、表清单获取、json文件生成、数据迁移执行及日志记录,确保数据一致性。相关工具和脚本简化了复杂迁移过程,提升效率。
|
11月前
|
SQL 存储 人工智能
化整为零:湖仓数据平台一站式迁移
本文介绍了湖仓平台迁移的概况、痛点及解决方案。首先概述了数据湖和数据仓库迁移的现状与背景,强调其重要性及挑战。接着分析了迁移过程中的主要痛点,如数据量大、业务变更频繁等。最后提出了一种化整为零的新范式,通过精细化设计和自动化工具提升迁移效率,并展示了一站式湖仓迁移中心的关键阶段和产品大图,旨在加速迁移过程并减少人工成本。
|
分布式计算 DataWorks MaxCompute
DataWorks产品使用合集之需要将mysql 表(有longtext类型字段) 迁移到odps,但odps好像没有对应的类型支持,该怎么办
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
143 0
|
算法 大数据 数据库
云计算与大数据平台的数据库迁移与同步
本文详细介绍了云计算与大数据平台的数据库迁移与同步的核心概念、算法原理、具体操作步骤、数学模型公式、代码实例及未来发展趋势与挑战。涵盖全量与增量迁移、一致性与异步复制等内容,旨在帮助读者全面了解并应对相关技术挑战。
358 3
|
安全 关系型数据库 MySQL
揭秘MySQL海量数据迁移终极秘籍:从逻辑备份到物理复制,解锁大数据迁移的高效与安全之道
【8月更文挑战第2天】MySQL数据量很大的数据库迁移最优方案
1399 17

热门文章

最新文章

下一篇
开通oss服务