分表后需要注意的二三事

简介: 先来简单回顾下上次提到了哪些内容:分表策略:哈希、时间归档等。分表字段的选择。数据迁移方案。而本篇文章的背景是在我们上线这段时间遇到的一些问题并尝试解决的方案。

问题产生


之前提到在分表应用上线前我们需要将原有表的数据迁移到新表中,这样才能保证业务不受影响。



所以我们单独写了一个迁移应用,它负责将大表中的数据迁移到 64 张分表,而再迁移过程中产生的数据毕竟是少数,最后在上线当晚再次迁移过去即可。


一切想的很美好,当这个应用上线后却发现没这么简单。


数据库负载升高


首先第一个问题是数据库自己就顶不住了,在我们上这个迁移程序之前数据库的压力本身就比较大,这个应用一上去就成了最后一根稻草。


最后导致的结果是:所有连接了数据库的程序大部分的操作都出现超时,获取不到数据库连接等一系列的异常。


最后没办法我们只能把这个应用放到凌晨执行,但其实后面观察发现依然不行。


虽说凌晨的业务量下降,但依然有少部分的请求过来,也会出现各种数据库异常。


再一个是迁移程序的效率也非常低下,按照这样是速度,我们预估了一下迁移时间,大约需要 10 几天才能把三张最大的表(3、4亿的数据)迁移到分表中。


于是我们换了一个方案,将这个迁移程序在从库中运行,最后再用运维的方法将分表直接导入进主库。


因为从库的压力要比主库小很多,对业务的影响很小,同时迁移的效率也要快很多。


即便是这样也花了一晚上+一个白天的时间才将一张 1亿的数据迁移完成,但是业务上的压力越来越大,数据量再不断新增,这个效率依然不够。


兼容方案


最终没办法只有想一个不迁移数据的方案,但是新产生的数据还是往分表里写,至少保证大表的数据不再新增。


但这样对于以前的数据咋办呢?总不能不让看了吧。


其实对于数据的操作无非就分为增删改查,就这四种操作来看看如何兼容。


新增



新增最简单,所有的数据根据分表规则直接写入新表,这样可以保证老表的数据不再新增。


删除


删除就要比新增稍微复杂一些,比如用户想要删除他个人产生的一条信息(比如说是订单数据),有可能这个数据在新表也可能在老表。



所以删除时优先删除新表(毕竟新产生的数据访问的频次越高),如果删除失败再从老表删除一次。


修改



而修改同理,同样的会不确定数据存在于哪里,所以先要修改新表,失败后再次修改老表。


查询


查询相对就要复杂一些了,因为这些大表的数据大部分都是存放一个用户产生的多条记录(比如一个用户的订单信息)。


这时在页面上通常都会有分页,并且按照时间进行排序。


麻烦的地方就出在这里:既然是要分页那就有可能出现要查询一部分分表数据和原来的大表数据做组合。


所以这里的查询其实分为三种情况。



  • 首先查询的时候要计算这个用户所在分表中的数据可以分为几页。


  • 第一步首先判断当前页是否可以在分表中全部获取,如果可以则直接从分表中取出数据返回(假设分页中总共可以查询 2 页数据,当前为第 1 页,那就全部取分表数据)。


  • 如果不可以就要判断当前页数在分表中是否取不到任何一条数据,如果是则直接取老表数据(比如现在要取第 5 页的数据,分表中一共才只有 2 页数据,所以第 5 页数据只能全部从老表中获取)。


  • 但如果分表和老表都存在一部分数据时,则需要同时取两张表然后做一个汇总再返回。


这种逻辑只适用于根据分表字段进行查询分页的前提下


我想肯定会有朋友提出这样是否会有性能问题?


同时如果在计算分表分页数量时出现并发写入的情况,导致分页数量不准从而对后续的查询出现影响该怎么处理?


首先第一个性能问题:


其实这个要看怎么取舍,为了这样的兼容目的其实会比常规查询多出几个步骤:


  • 判断当前页是否可以在分表中查询。


  • 当新老表中都有数据时候需要额外多查询一张大表。


第一个判断逻辑其实是在内存中计算,这个损耗我觉得完全可以忽略不计。


至于第二步确实会有损耗,毕竟多查了一张表。


但在分表之前所有的数据都是从老表中获取的,当时的业务也没有出现问题;现在多的只是查询分表而已,但分表的数据量肯定要比大表小的多,而且有索引,所以这个效率也不会慢多少。


而且根据局部性原理及用户的使用习惯来看,老表中的数据很少会去查询,随着时间的推移所有的数据肯定都会从分表中获取,逐渐老表就会成为历史表。


而第二个并发带来的问题我觉得影响也不大,一定要这个分页准的前提肯定得是加锁了,但为了这样一个不痒的小问题却带来性能的下降,我觉得是不划算的。


而且后续我们也可以慢慢的将老表的数据迁移到新表,这样就可以完全去掉这个兼容逻辑了,所有的数据都从分表中获取。


相关文章
|
9天前
|
关系型数据库 分布式数据库 数据库
PolarDB闪电助攻,《香肠派对》百亿好友关系实现毫秒级查询
PolarDB分布式版助力《香肠派对》实现百亿好友关系20万QPS的毫秒级查询。
PolarDB闪电助攻,《香肠派对》百亿好友关系实现毫秒级查询
|
7月前
|
负载均衡 监控 定位技术
分库表数据倾斜的处理让我联想到了 AKF 模型
这里的特殊性可以是表中字段的某一个属性,比如订单编号、创建时间等等。这就需要我们根据实际情况,既要拆分的均匀又要拆分之后能满足未来几年的发展,同时还要满足现有业务的支持。
45 0
|
11月前
|
存储 JavaScript Java
亿级别大表拆分 —— 记一次分表工作的心路历程
亿级别大表拆分 —— 记一次分表工作的心路历程
|
11月前
|
存储 数据处理 数据库
分表方案有哪些
分表方案有哪些
82 0
|
存储 缓存 自然语言处理
阿里二面:MySQL索引是怎么支撑千万级表的快速查找?
在 MySQL 官方提到,改善操作性能的最佳方法 SELECT 在查询中测试的一个或多个列上创建索引。索引条目的作用类似于指向表行的指针,从而使查询可以快速确定哪些行与WHERE子句中的条件匹配,并检索这些行的其他列值。所有MySQL数据类型都可以建立索引。
234 0
作为5年开发的程序员你不懂分表分库的实现思路,我表示不理解
分表分库实现思路 技术选型这一难题解决后,具体如何落实分表分库方案呢?需要考虑5个要点。 1)使用什么字段作为分片主键? 2)分片的策略是什么? 3)业务代码如何修改? 4)历史数据如何迁移? 5)未来的扩容方案是什么?
|
SQL 存储 缓存
宽表为什么横行?
宽表为什么横行?
41395 8
宽表为什么横行?
|
中间件 数据库连接 数据库
分库分布的几件小事(二)如何进行分库分表的数据迁移
如何进行分库分表的数据迁移,如何业务无感知迁移数据
|
算法 数据库
|
SQL 存储 cobar
分库分布的几件小事(一)数据库如何拆分
为何要分库分表、分库分表的方式