阿里终面:业务主表读写缓慢如何优化?

简介: 阿里终面:业务主表读写缓慢如何优化?

大家好,我是不才陈某~

无论多么复杂的业务场景,一条数据的一生都体现在CRUD操作上,正是创建查询修改删除。正如人的生死轮回,数据亦是如此,一条数据随着时间的流逝,其价值也是在逐渐变小。

数据存在的价值则是在于它被使用的程度,在不同的系统中,人们对于不同时期的数据有着不同的需求。

比如12306携程上的火车、机票订单,人们往往只关注30天之内的订单,而携程正是默认只保留30天的订单信息,超过30天的订单需要通过手机号查找。

携程订单

携程为什么要这么做?

其实仔细想想不难明白,作为全国购票平台,每年数以亿计的订单,如果全部能够开放操作(CRUD),那么系统将会瞬间崩溃

一个订单走到终态的标志则是这笔订单的完成,也就意味着这笔订单除了查询的需求,不再任由用户修改、删除。

其实携程所用的架构方法正是:冷热分离

什么是冷热分离?

冷热分离则是在处理数据时将数据库分为热库冷库两个库。冷库存放的是走到终态的数据,热库存放的是还需要修改的数据。

比如30天之内的机票、火车票订单,用户可能需要对这期间的订单做出退票开发票的操作,但是30天之前订单却只有查询的需求,因此可以将30天之内的订单放到热库中,之前的订单存放到冷库中。

那么这里又引出了两个概念,分别是:

  • 热数据:被频繁更新;响应时间有要求
  • 冷数据:不允许更新(具体业务系统具体分析),偶尔被查询;响应时间无要求。

什么情况下需要使用冷热分离?

在大型的互联网系统中,如果出现了以下场景则应该考虑冷热分离:

  1. 主业务响应延迟太大,比如12306下订单太慢了。
  2. 数据走到终态后,没有更新需求,只有读的需求,比如订单的完成状态。
  3. 用户能够接受新旧数据分开查询,比如携程的订单查询30天之前的需要用手机号查询。

补充:当然现在有些系统不像携程那样将往期订单分开查询,但是其实内部也是做了冷热分离,只不过是在你无感知的情况下完成的。

如何判断一个数据是冷数据还是热数据?

这个就要根据自己业务系统来区分了,一般而言是根据主表中的一个或者多个字段进行标识区分,比如订单的时间,这个是时间维度,可以将3个月之前的数据定义为冷数据,最近3个月的数据定义为热数据。

当然也可以是状态维度,比如订单的状态,已完结的订单定义为冷数据,未完结的订单定义为热数据。

同样的也可以将时间维度和状态维度组合起来,比如下单时间大于3个月且订单状态为已完结的定义为冷数据,反则为热数据。

总之:根据自己业务需求,具体问题具体分析。

但是需要注意以下两点:

  1. 如果一个数据被标识为冷数据,业务代码不会再对它进行写操作
  2. 不会同时存在读冷/热数据的需求。

如何实现冷热数据分离?

一切的理论知识都要经过实战的检验,基础知识了解了,那么如何实现冷热数据的分离呢?下面介绍三种常见的方法。

1、业务代码修改

这种方案是直接修改业务代码,对代码的侵入性比较高,无法按照时间进行区分,在数据修改时触发冷热分离。

该种方案需要在业务代码层面判断是否需要冷热分离,比如订单的状态修改,一旦状态为终态则将这条数据标记为冷数据,然后触发冷热处理,将其写入冷库,同时删除热库中的这笔数据。

2、监听数据库日志

该种方案需要监听binlog日志的方式进行触发,比如订单状态修改了,则触发冷热分离。

同样的这里无法按照时间区分但是对代码无侵入

监听binlog日志的工具有很多,前面介绍过,比如阿里的canal,还有其他的开源中间件可供选择,如下:

对于MySQL数据库建议选择canal,使用方式看:实战!Spring Boot 整合 阿里开源中间件 Canal 实现数据增量同步!

整个流程如下图:

3、定时任务扫描

该种方案可以按照时间区分,与业务代码解耦,是个不错的选择。

流程如下:

总结

解决读写缓慢的问题冷热分离是个不错的选择,上述介绍了三种方案实现冷热分离,虽说都能实现,但是仍然要考虑诸多问题,最棘手的问题就是数据一致性的问题。

在冷热分离的处理逻辑中一定要保证热库、冷库中的数据一致性问题,手段很多,这里就不再过多介绍了。

相关文章
|
6月前
|
存储 监控 关系型数据库
传统库分表麻烦查询慢?TDengine 如何解决“搜狐基金”的应用难题
搜狐基金团队使用的 MySQL 数据库在面对海量数据时存在能力瓶颈,在此背景下,其决定基于 TDengine 尝试一下全新的方案。
105 0
|
6月前
|
存储 关系型数据库 MySQL
太强了!三种方案优化 2000w 数据大表!
太强了!三种方案优化 2000w 数据大表!
|
10月前
|
存储 缓存 测试技术
三十、如何迅速分析出系统I/O的瓶颈在哪里?
最容易想到的是存储空间的使用情况,包括容量、使用量以及剩余空间等。我们通常也称这些为磁盘空间的使用量,因为文件系统的数据最终还是存储在磁盘上。
80 0
|
11月前
|
SQL 关系型数据库 MySQL
线上千万级大表排序:优化攻略揭秘,轻松应对海量数据!
前段时间应急群有客服反馈,会员管理功能无法按到店时间、到店次数、消费金额 进行排序。经过排查发现是Sql执行效率低,并且索引效率低下。遇到这样的情况我们该如何处理呢?今天我们聊一聊Mysql大表查询优化。
线上千万级大表排序:优化攻略揭秘,轻松应对海量数据!
|
存储 SQL canal
业务单表 读写缓慢 如何优化?
业务单表 读写缓慢 如何优化?
|
缓存 数据挖掘 BI
面试官问你:日亿万级请求日志收集如何不影响主业务?你怎么回复
数据收集 上篇详细讨论了写缓存的架构解决方案,它虽然可以减少数据库写操作的压力,但也存在一些不足。比如需要长期高频插入数据时,这个方案就无法满足,接下来将围绕这个问题逐步提出解决方案。
|
存储 分布式计算 NoSQL
分析服务一体化新能理解读| 学习笔记
快速学习分析服务一体化新能理解读
73 0
分析服务一体化新能理解读| 学习笔记
|
SQL 监控 数据库
网站流量日志分析—数据入库—宽表具体表现1—时间拓宽|学习笔记
快速学习网站流量日志分析—数据入库—宽表具体表现1—时间拓宽
185 0
网站流量日志分析—数据入库—宽表具体表现1—时间拓宽|学习笔记
|
消息中间件 缓存 Dubbo
修正版 | 面对千万级、亿级流量怎么处理?
这是之前发过的一篇文章,写完之后小问题挺多的,于是还是重新改一版。
修正版 | 面对千万级、亿级流量怎么处理?
|
消息中间件 运维 监控
200张表,单表记录过亿,10多年核心老系统的重构之旅
200张表,单表记录过亿,10多年核心老系统的重构之旅
394 0
200张表,单表记录过亿,10多年核心老系统的重构之旅