企业运维训练营之数据库原理与实践—数据库DAS简介和备份上云方案—数据上云(上)

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 企业运维训练营之数据库原理与实践—数据库DAS简介和备份上云方案—数据上云(上)

二、 数据上云

 

image.png

 

数据传输服务(Data Transmission Service,简称DTS)是阿里云提供的实时数据流服务,支持关系型数据库、非关系型数据库,及OLAP分析型数据库等数据源间的数据交互,集数据同步、迁移、订阅、集成、加工于一体。

 

DTS能够让数据可以更好地流通,从线下流通到云上,在云上不同数据库之间流通。其优势主要在于以下几点:

 

第一,方便快捷。DTS提供可视化管理界面,不需要进行黑屏命令或其他复杂的操作,只需要在界面上进行任务的配置和流程安排,就可以创建订阅或同步任务。

 

第二,丰富多样。DTS支持的源库和目标数据库引擎丰富,支持从关系型到非关系型、从关系型到OLAP等跨引擎之间的数据传输。此外,DTS数据传输方式也十分丰富,包括数据迁移、同步、订阅、集成等方式。

 

第三,高性能。DTS采用阿里云自研的高可用架构、高性能的链路,峰值的传输数据速率可达70MB/S。

 

第四,安全可靠。DTS具有容灾、鉴权、断点续传及数据校验功能,能够保证数据的完整性和一致性。

 

image.png

 

DTS系统架构中,用户可以通过DTS控制台配置迁移、同步或订阅任务,并通过内部调度系统匹配不同的应用。例如,迁移任务需要通过迁移系统完成,同步任务需要通过数据同步系统进行。

 

另外,容灾和监控系统将不断监听任务是否正常。如出现异常,DTS将提供另外的高可用方案来保证其正常运行。

 

系统高可用性是指DTS内部每个模块都存在主备架构来保证系统的高可用性,容灾系统会实时检测每个节点的健康状况,一旦发现某个节点存在异常,会快速切换到其他节点。

 

数据源地址动态适配是指对于数据订阅及同步链路,容灾系统会监测数据源连接地址切换等变更操作,一旦发生了数据源连接地址变更,DTS会自动适配数据源新的连接地址。在数据源变更情况下保证链路稳定性,加强高可用性。

 

 

image.png

 

DTS三大功能指DTS数据迁移、数据同步和数据订阅,不同的功能有不同的应用场景。数据迁移一般用于一次性或大批量数据搬迁场景,能够将数据迁移到目标库内。例如,客户将业务从IDC、机房或线下初始化搬迁到云上时可以使用数据迁移。

 

数据迁移过程包含进行数据迁移的某一时间点及迁移过程中的数据,该时间点之前的所有数据为全量的数据迁移,迁移过程中源端数据库写入的数据即增量数据。DTS支持将增量数据迁移到目标库,以保证目标库和源库数据完整一致。

 

数据迁移过程包括结构迁移、全量数据迁移、增量数据迁移三个阶段。

 

结构迁移。DTS将在目标库中重新创建同源库保持一致的数据结构。异构数据库之间进行迁移时,DTS将会解析源库DDL代码,将代码转换成目标库语法,在目标库中创建新的结构对象。

 

全量数据迁移。DTS会将源库的存量数据全部迁移到目标库。源库保持运行状态且迁移过程中仍有数据更新时,DTS会使用增量数据读取模块来获取全量数据迁移过程中发生的数据更新。

 

增量数据迁移。当全量数据迁移完成后,DTS会检查本地存储的增量数据,并重新格式化,将数据更新到目标数据库。持续到所有进行的数据变更都复制到目标数据库,以保证源库和目标库数据完全一致。

 

image.png

 

数据同步是指将源库数据迁移到目标库,为什么需要数据同步?

 

第一,时效性高。数据同步能够将某一时刻中源端实例的数据变化,在短时间同步到目标库中,该功能在容灾或多活场景下应用广泛。

 

第二,数据变化丰富。数据同步可以完成插入数据、删除数据或数据更新的操作。虽然无法完成类似数据迁移的大批量迁移,但其时效或单个数据准确性较高。

 

数据同步包括同步初始化和数据实时同步两个阶段。初始化是将源端数据加载到目标数据库,数据实时同步是将在进行中的数据变更加载到目标库,来保证源端数据库和目标数据库中数据是一致的。

 

数据同步通过事务日志读取模块和事务日志回放模块来完成。

 

事务日志读取模块在源端实例读取原始数据,经过解析、过滤及标准格式化,最终将数据本地化,该模块会通过数据库协议连接并读取源实例的增量日志。

事务日志回放模块从日志读取模块中请求增量数据,根据用户配置的同步对象进行数据过滤。在保证事务时序和一致性的前提下,将日志同步记录到目标实例,保证两端数据一致。


接下篇:https://developer.aliyun.com/article/new/supportservice?spm=a2c6h.12873639.article-detail.5.512b396cr8HGpf&publish=1224099#/?_k=2bd0ue

相关实践学习
使用DAS实现数据库自动扩容和回缩
暂无
相关文章
|
2月前
|
消息中间件 canal 缓存
项目实战:一步步实现高效缓存与数据库的数据一致性方案
Hello,大家好!我是热爱分享技术的小米。今天探讨在个人项目中如何保证数据一致性,尤其是在缓存与数据库同步时面临的挑战。文中介绍了常见的CacheAside模式,以及结合消息队列和请求串行化的方法,确保数据一致性。通过不同方案的分析,希望能给大家带来启发。如果你对这些技术感兴趣,欢迎关注我的微信公众号“软件求生”,获取更多技术干货!
152 6
项目实战:一步步实现高效缓存与数据库的数据一致性方案
|
2月前
|
canal 缓存 NoSQL
Redis缓存与数据库如何保证一致性?同步删除+延时双删+异步监听+多重保障方案
根据对一致性的要求程度,提出多种解决方案:同步删除、同步删除+可靠消息、延时双删、异步监听+可靠消息、多重保障方案
Redis缓存与数据库如何保证一致性?同步删除+延时双删+异步监听+多重保障方案
|
3月前
|
关系型数据库 MySQL 数据库
|
3月前
|
存储 机器学习/深度学习 自然语言处理
LangChain与向量数据库:高效的信息检索方案
【8月更文第4天】随着自然语言处理技术的发展,特别是深度学习的进步,我们能够更加高效地处理大量的文本数据。LangChain 作为一种强大的工具链,旨在简化和加速构建复杂的自然语言处理应用程序。结合向量数据库,LangChain 可以实现高效且精准的信息检索功能。本文将探讨这一组合的工作原理,并通过一个具体的实现案例来展示其在实际应用中的效果。
448 2
|
16天前
|
缓存 关系型数据库 MySQL
高并发架构系列:数据库主从同步的 3 种方案
本文详解高并发场景下数据库主从同步的三种解决方案:数据主从同步、数据库半同步复制、数据库中间件同步和缓存记录写key同步,旨在帮助解决数据一致性问题。关注【mikechen的互联网架构】,10年+BAT架构经验倾囊相授。
高并发架构系列:数据库主从同步的 3 种方案
|
12天前
|
弹性计算 运维
新 企业级ECS集群运维管理训练营 打卡学习领好礼
新 企业级ECS集群运维管理训练营 打卡学习领好礼
53 3
|
1月前
|
安全 NoSQL 关系型数据库
阿里云数据库:助力企业数字化转型的强大引擎
阿里云数据库:助力企业数字化转型的强大引擎
|
2月前
|
存储 SQL 关系型数据库
一篇文章搞懂MySQL的分库分表,从拆分场景、目标评估、拆分方案、不停机迁移、一致性补偿等方面详细阐述MySQL数据库的分库分表方案
MySQL如何进行分库分表、数据迁移?从相关概念、使用场景、拆分方式、分表字段选择、数据一致性校验等角度阐述MySQL数据库的分库分表方案。
405 15
一篇文章搞懂MySQL的分库分表,从拆分场景、目标评估、拆分方案、不停机迁移、一致性补偿等方面详细阐述MySQL数据库的分库分表方案
|
1月前
|
存储 NoSQL MongoDB
小川科技携手阿里云数据库MongoDB:数据赋能企业构建年轻娱乐生态
基于MongoDB灵活模式的特性,小川实现了功能的快速迭代和上线,而数据库侧无需任何更改
|
1月前
|
运维 NoSQL BI
简道云搭载阿里云MongoDB数据库,帮助数以万计企业重构业务系统
通过与MongoDB和阿里云团队的合作,让简道云少走了弯路,保障了线上服务的长期稳定运行,提高了吞吐效率,并相应降低了线上运行成本

热门文章

最新文章