从一个电商平台的库存同步谈性能优化和方案落地

本文涉及的产品
云数据库 Tair(兼容Redis),内存型 2GB
Redis 开源版,标准版 2GB
推荐场景:
搭建游戏排行榜
简介: 从一个电商平台的库存同步谈性能优化和方案落地

下面的案例来自笔者的实际工作经历,涉及到的系统是笔者负责开发和维护的,一个国外的电商平台。

如果你对电商系统有所了解,将有助于你理解下面提到的业务。

如果你没有相关的知识背景,也没有关系,我会尽可能简化地将业务讲给你,并且只要求你理解关键概念即可。

背景

事情的起因是平台的某位高级主管的一封邮件,其中提到商品全量库存的实时性太低,需要各个部门的人协力解决。

库存同步相关概念

先介绍一下电商平台的一些基本概念。

库存就是仓库中某个SKU(最小库存单元)在仓库中实际有量。

比如某型号灰色8核16G内存的笔记本电脑就是一个SKU,在仓库中这个SKU有100台,那么它的库存量就是100。

  • 全量和增量库存

仓库每天都会把自己实际的库存量统计出来,这就是全量库存,仓库把库存量发送给各个销售终端,这就是全量库存同步

同时,为了保证库存的实时性,防止超卖(卖出比实际库存量更多的商品,仓库无法发出货品,有可能导致客诉)和仓库有货但客户买不到的情况,仓库会把库存的变化量也实时分发到各个终端,这个库存的变化量就是增量库存

举例来说,上面的那个SKU笔记本电脑有一台送到摄影棚去拍照了,那么这台就无法销售了,仓库就会推送一个-1的增量库存到销售终端;而如果它收到了消费者的退货,退货入库以后,将会推送一个+1的增量库存。

  • 多店铺与分盘

电商平台一般都会有多个店铺入驻,例如3C这个分类下面,可能有苹果、华为、三星、小米等店铺。

不同店铺的库存是独立的。

有时候一个SKU在多家店铺都有售,iPhone X/太空灰色/256GBXXX苹果平台旗舰店XXX手机大世界店XX苹果折扣店 就是三个不同的库存记录。

这就是多店铺库存

作为分销商,它的仓库中放着不同平台、不同品牌的商品。例如上面的手机,在深圳、广州、上海三个地区仓库都有货,并且是分别卖给天猫和京东的,那么它的库存记录就有6条,分别是:

No. 仓库 渠道
1 深圳 天猫
2 深圳 京东
3 广州 天猫
4 广州 京东
5 上海 天猫
6 上海 京东

这就是分盘库存

  • 库存清点时间和最后更新时间

在实际操作中,为了保证数据的准确性,平台会对库存的时间进行校验。

例如,仓库在凌晨 01:00 清点出某SKU库存量为100,则这条库存记录的库存清点时间就是01:00。

仓库在01:00清点完以后,在02:00收到了一个退货,那么就会推送一个+1的增量到平台。

一般情况下,全量先发出,平台应该先收到全量100,再收到增量+1,最后为101。

但如果由于某个中间环节出了问题,先收到增量+1,在收到全量100,那么最终的库存量将是100。全量库存会直接覆盖平台现在的库存量。

因此,如果有一个最后更新时间,记录是02:00收到的增量,那么当01:00的全量过来的时候,由于比增量时间要早,将被平台视为作废。

库存流转过程

实际的库存数据流转过程往往不是 「仓库——>平台」 这么短的链路,实际链路总是很长的:

InventoryDataSystemFlow

不同系统的性能不同,实现方式不同,越长的链路时延问题就越严重。

方案

问题分析

想要解决问题,首先要分析问题。作为平台技术负责人,我先统计了平台最近一个月的库存同步时间,大约是150分钟,并且每隔几天会延长几分钟。

然后我统计了最近一段时间全量库存的数据变化量,仅仅10天就增加了5w。

InventoryDataAmount

  • 问题定义:

目前看来,从平台角度来讲,随着库存数据量的增加,处理时间不断延长,再加上整个链路很长,造成全量库存数据的实时性很差。

头脑风暴

分析完问题,我立即召开了团队的人员讨论解决方案,经过大家讨论,可以优化的环节是下面几个:

  1. 提升硬件配置

当你拼命练跑步避免迟到的时候,也许给你一辆车就解决问题了。

部门服务的资源紧张,配置极低。

  1. 修改消息处理逻辑

目前库存数据拆分粒度很细(分店铺分仓库分门店),加上网络时延,会造成处理时间延长。

  1. 优化消息处理的逻辑

库存数据由消息中心统一处理,消息中心会处理订单、商品、价格、会员、库存等等多种类型的数据,效率不高。

  1. 优化全量库存同步

从平台处理数据的代码流程着手优化。

确定方案

对于方案1需要金主批钱,方案2需要多个系统修改,这些不好谈;方案3需要改动整体架构,工作量巨大。

对于解决燃眉之急,方案4的可行性最高,改动量和影响范围最小。

细化方案

方案4优化全量库存同步,具体细化为下面三个方面

  1. 业务精简和标准化
  2. 数据处理高性能
  3. 队列操作高性能

下面在实施的时候一一详细说明。

实施

业务精简和标准化

业务精简和标准化分为下面几个方面:

  1. 全增隔离

目前全量和增量库存同步使用同一个队列名,通过字段判断是全量还是增量。
这样增加了代码的复杂度,而且原子性不好。
全量库存单独队列,与增量同步隔离。

  1. 剥离日志

修改库存以后需要记录详细变更日志,日志的实时性要求不高,将改操作剥离为单独的队列进行处理。

  1. 剥离新建

目前同步库存之前先判断该商品是否存在,如果存在再判断该商品在库存表是否有记录,如果没有则新建记录,有则更新库存。

由于随着数据量的增加,新建的记录(每天1k到3k之间)所占的比重越来越小,因此将新建的操作也单独剥离为一个队列进行处理。

优化消息处理的逻辑

平台为分布式系统,消息处理需要从注册中心调用远程Dubbo服务,首先将数据处理移动到Dubbo服务中完成,避免了频繁调用Dubbo服务,另外使用多线程处理消息,最大限度利用多核心的优势。

关于线程池的使用,可以参考这篇文章:使用ThreadPoolExecutor构造线程池

//构造线程池
private static ExecutorService executorService = new ThreadPoolExecutor(
16,
32,
10L,
TimeUnit.MINUTES,
new LinkedBlockingQueue<Runnable>(
                2048),new ThreadFactoryBuilder()
                     .setNameFormat("BatchSyncFullInventory-Pool-%d").build(),
                     new ThreadPoolExecutor.CallerRunsPolicy());

经过上面的优化,目前处理的时间有了大幅度降低:

[外链图片转存中...(img-7c7zMvvn-1676539664824)]

队列操作高性能

经过上面的优化,发现每处理2k条消息,处理时间在1s以内,但出队时间接近15s。

因此,下面的优化重点是提高队列的操作性能。

由于Redis频繁的操作,会造成RTT(网络时延)不断延长,可以使用管道来降低RTT。

下面是Spring Data Redis使用管道的方式:

//从队列中循环取出消息, 使用管道, 减少网络传输时间
List<Object> msgList = redisTemplate.executePipelined(new RedisCallback<Object>() {
    @Override
    public Object doInRedis(RedisConnection connection) throws DataAccessException {
        for (int i = 0; i < batchSize; i++) {
            connection.rPop(getQuenueName().getBytes());
        }
        return null;
    }
});

理论上是这样的,需要有实际的数据支撑,因此需要通过做实验来验证方案的效果。

首先,在测试环境对比了三种不同的出队方式的性能,分别是单线程循环出队、多线程循环出队和单线程管道出队。

测试发现使用管道出队两千次,只需要70毫秒左右。

[外链图片转存中...(img-4IjJxout-1676539664825)]

最终,使用了 管道+多线程,库存消息的处理时间降到了30分钟左右:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-SRWWuzTE-1676539666362)(null)]

关于管道的使用,可以参考这篇文章:Redis管道技术

CPU使用过高

虽然发布到生产以后,处理时间有了大幅度降低,但是经过监控发现,Redis的CPU使用率一直居高不下。

对于监听队列的场景,一个简单的做法是当发现队列返回的内容为空的时候,就让线程休眠几秒钟,等队列中累积了一定量数据以后再通过管道去取,这样就既能享受管道带来的高性能,又避免了CPU使用率过高的风险。

//如果消息的内容为空, 则休眠[10]秒钟以后再继续取数据,防止大批量地读取redis造成CPU消耗过高
if (CollectionUtils.isEmpty(messageList)) {
    Thread.currentThread().sleep(10 * 1000);
    continue;
}

总结

  • 方案设计:头脑风暴与可行性评估
  • 逻辑精简化 : 剥离不必要的操作
  • 流程标准化 : 梳理统一业务的流程
  • 线程池实现高性能并发 : Executor Service
  • 管道实现高性能队列 : Redis Pipelining

作为一个工程师,要知道自己能力的边界在哪里,利用有限的资源让方案落地。

这里优化的经历,是想让大家对电商相关的业务有所了解,另外对处理问题的解决思路有所借鉴。

相关实践学习
基于Redis实现在线游戏积分排行榜
本场景将介绍如何基于Redis数据库实现在线游戏中的游戏玩家积分排行榜功能。
云数据库 Redis 版使用教程
云数据库Redis版是兼容Redis协议标准的、提供持久化的内存数据库服务,基于高可靠双机热备架构及可无缝扩展的集群架构,满足高读写性能场景及容量需弹性变配的业务需求。 产品详情:https://www.aliyun.com/product/kvstore &nbsp; &nbsp; ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库&nbsp;ECS 实例和一台目标数据库&nbsp;RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&amp;RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
目录
相关文章
|
4月前
|
缓存 NoSQL 安全
|
SQL 存储 缓存
由浅入深的介绍扣减业务中的一些高并发构建方案(上)
在后台开发领域,高并发的扣减一直是比较热门的话题,在各类技术博客、大会分享以及面试问题中出现频率都非常高。可见它的重要性和技术知识点的密集性。
由浅入深的介绍扣减业务中的一些高并发构建方案(上)
|
Cloud Native 关系型数据库 分布式数据库
客户说|PolarDB最佳实践:工期缩短2/3,揭秘极氪APP分布式改造效率神器
极氪APP引入阿里云PolarDB,21天完成数据库分布式改造
|
NoSQL 算法 Java
千万级订单生成的痛点与架构
千万级订单生成的痛点与架构
193 0
|
SQL 关系型数据库 MySQL
浅谈千万级系统重构系列
浅谈千万级系统重构系列
115 0
|
存储 SQL 缓存
由浅入深的介绍扣减业务中的一些高并发构建方案(中)
这一讲我将由浅入深的介绍如何基于缓存来实现单机万级这些并发扣减目标。
|
SQL 消息中间件 缓存
【分布式技术专题】「架构设计方案」盘点和总结秒杀服务的功能设计及注意事项技术体系
【分布式技术专题】「架构设计方案」盘点和总结秒杀服务的功能设计及注意事项技术体系
204 0
【分布式技术专题】「架构设计方案」盘点和总结秒杀服务的功能设计及注意事项技术体系
|
canal 存储 缓存
【架构】千万级购物车系统缓存架构方案
本文主要介绍redis在千万级系统中设计架构方案,包括主架构设计、缓存一致性方案、大value处理方案和redis限流和故障恢复降级
【架构】千万级购物车系统缓存架构方案
|
BI
解决方案应用实例 |引入业务中台,千百度破解高库存、高缺货难题
服饰行业普遍存在的高库存、高缺货问题,千百度也难以避免。阿里云业务中台上线半年以来,千百度真正做到了多品牌、多渠道的商品,库存、订单、会员统一管理,客户满意度明显提升。
263 0
解决方案应用实例 |引入业务中台,千百度破解高库存、高缺货难题
|
缓存 监控 Java
大麦库存的高性能及一致性是如何设计的?
大麦网作为现场娱乐票务平台,其业务覆盖了各大顶级演唱会和大型赛事等高流量项目。 票务行业库存系统不同于普通电商库存系统,瞬压过高的秒杀抢票,多场景、多阶段的售卖, 对一致性和稳定性提出更高要求。本文将为读者介绍现场娱乐行业票务库存高性能和一致性难 点解决和沉淀下来的库存稳定性建设经验。
大麦库存的高性能及一致性是如何设计的?