【Redis核心知识 九】Redis企业级解决方案【缓存预热、热备、雪崩、击穿、穿透】(一)

简介: 【Redis核心知识 九】Redis企业级解决方案【缓存预热、热备、雪崩、击穿、穿透】(一)

上一篇blog【Redis从入门到放弃系列 十五】Redis集群之Cluster模式及集群搭建可谓呕心沥血,一周的零碎时间学习加上周末4h的写,本篇聊些老八股,关于企业级的一些Redis缓存解决方案,包括:缓存预热、缓存雪崩、缓存击穿、缓存穿透,以及一些简单的性能监测指标。依据政策流程以及可能会在什么分支上发生什么灾难,我构建了下列的流程图,正确请求是先从缓存拿数据,拿不到再从数据库里拿。

缓存预热、缓存雪崩、缓存击穿主要原因为频繁访问数据库更新缓存,造成数据库压力过大,而穿透则是因为数据库也没有数据,不停的进行穿透请求,造成Redis服务器和数据库压力均很大。心里有个数后可以详细的看看各种情况及处理手段。

缓存预热

新的缓存系统没有任何缓存数据,在缓存重建数据的过程中,系统性能和数据库负载都不太好,所以最好是在系统上线之前就把要缓存的热点数据加载到缓存中,这种缓存预加载手段就是缓存预热。如果不预热会有如下问题产生:Redis服务器启动后迅速宕机、数据库和应用服务器也可能会宕机

现象和问题原因

排查Redis服务器发现如下现象:请求数据量较高主从之间数据吞吐量达数据同步操作频度比较高,数据库读取频度比较高。主要原因为重启时Redis的缓存中没有数据。

解决方案

因为主要问题是缓存没有预先加载,导致重启时扛不住这么大的访问压力,所以主要解决问题思路就是预加载数据,但是预加载也不能加载全部,需要有策略的预加载数据:

  • 要预加载数据,提前给redis中嵌入部分数据,再提供服务。但不可能将所有数据都写入redis,因为数据量太大了,耗费的时间太长了,第而且redis根本就容纳不下所有的数据
  • 要有依据的加载,日常统计高热度访问数据;依据当天的具体访问情况,试试统计出频率较高的热数据
  • 要加快高热数据的加载速率,然后将访问频率较高的热数据写入到redis,热数据比较多,需要多个服务并行的读取数据去写,并行的分布式的缓存预热

处理完成后后将嵌入的热数据的redis对外提供服务,这样就不至于冷启动,直接让数据库奔溃了。当然其中最重要的一点就是如何统计热数据,按照如下执行顺序去统计

  1. nginx+lua将访问量上报到kafka中,要统计出来当前最新的实时的热数据是哪些,我们就得访问的请求对应的流量,日志,实时上报到kafka中
  2. storm从kafka中消费数据,实时统计出每个商品的访问次数,访问次数基于LRU内存数据结构的存储方案,优先用内存中的一个LRUMap队列去存放,性能高,而且没有外部依赖,apache commons collections有开源的实现,设定好map的最大大小,就会自动根据LRU算法去剔除多余的数据,保证内存使用限制,即使有部分数据被干掉了,下次来重新开始计数即可,如果被LRU算法淘汰说明不是热数据
  3. 每个storm task启动的时候,基于zk分布式锁,将自己的id写入zk的一个节点中
  4. 每个storm task负责完成自己这里的热数据的统计,比如每次计数过后,维护一个前1000个key的list,每次计算完都更新这个list
  5. 开启一个守护线程,每隔一段时间,比如一分钟,将排名前1000的热数据list同步到zk中

确定好日常统计的热数据后。在启动前进行加载,启动时

  1. 使用脚本程序固定触发数据预热的过程
  2. 条件允许,可以使用CDN进行加速

以上就是缓存预热完整的一个解决方案。可以想象,如果没有预热,大量的请求穿透Redis服务器进入数据库,不但数据库扛不住,接下来给Redis更新缓存数据,Redis服务也扛不住啊。

缓存雪崩

缓存雪崩是指缓存中短期内有大批量的key集中过期,而查询数据量巨大,导致短期内应用服务器、数据库、Redis服务器和集群扛不住压力集中宕机。

现象和问题原因

为了便于理解,我将雪崩时的现象和背后的原因做了一个对应关系的展示:

解决方案

其实主要问题就是短时间内key的集中化过期,我们让这些key不集中过期其实就是解决这个问题的关键。

  • 调整删除策略,LRU和LFU的删除策略,按照命中次数去进行删除,保留高热数据key
  • 稀释数据有效期,对不同的业务数据进行统计和分类错峰过期,错峰使用随机时间实现,稀释key的集中到期数量
  • 超热数据使用永久的key
  • 定期维护,对即将过期的热点数据进行延时策略,延长过期时间
  • 加锁,缓存失效后,通过加锁或者队列来控制读数据库写缓存的线程数量。

加锁排队只是为了减轻数据库的压力,并没有提高系统吞吐量。假设在高并发下,缓存重建期间key是锁着的,这时过来1000个请求999个都在阻塞的。同样会导致用户等待超时,加锁排队有可能还要解决分布式锁的问题;线程还会被阻塞,用户体验很差!因此,在真正的高并发场景下很少使用!加锁的伪代码如下:

//伪代码
public object GetProductListNew() {
    int cacheTime = 30;
    String cacheKey = "product_list";
    String lockKey = cacheKey;
    String cacheValue = CacheHelper.get(cacheKey);
    if (cacheValue != null) {
        return cacheValue;
    } else {
        synchronized(lockKey) {
            cacheValue = CacheHelper.get(cacheKey);
            if (cacheValue != null) {
                return cacheValue;
            } else {
              //这里一般是sql查询数据
                cacheValue = GetProductListFromDB(); 
                CacheHelper.Add(cacheKey, cacheValue, cacheTime);
            }
        }
        return cacheValue;
    }
}

缓存击穿

缓存击穿,是指一个key非常热点,在不停的扛着大并发,大并发集中对这一个点进行访问,当这个key在失效的瞬间,持续的大并发就穿破缓存,直接请求数据库,就像在一个屏障上凿开了一个洞。导致短期内数据库扛不住压力集中宕机

现象和问题原因

为了便于理解,我将击穿时的现象和背后的原因做了一个对应关系的展示:

解决方案

其实主要问题就是单个超热key的高并发访问,我们让超热key不过期其实就是解决这个问题的关键。

  • 预先设定超热Key,对此类Key设置长期Key并追加延时策略【后台开启定时任务刷新有效期】
  • 临时设置永久Key,访问业务量短期内激增的时候,临时设置为永久Key保证不过期
  • 加分布式锁,防止被击穿,其实就是降低对数据库的访问压力,但整体依然是阻塞的。

简单地来说,加分布式锁就是在缓存失效的时候(判断拿出来的值为空),不是立即去load db,而是在获取到锁后再进行操作。

缓存穿透

缓存穿透是指查询一个一定不存在的数据,由于缓存是不命中时被动写的,并且出于容错考虑,如果从存储层查不到数据则不写入缓存,这将导致这个不存在的数据每次请求都要到存储层去查询,失去了缓存的意义。在流量大时,数据库的压力骤增。 导致短期内数据库扛不住压力宕机

现象和问题原因

为了便于理解,我将穿透时的现象和背后的原因做了一个对应关系的展示:

解决方案

其实主要问题就是大量请求对数据库击穿,我们让请求到不了数据库就行了:

  • 缓存null,如果一个查询返回的数据为空(无论是数据不存在,还是系统故障),我们仍然把这个空结果进行缓存,但它的过期时间会很短,最长不超过五分钟。问题是:空值做了缓存,意味着缓存层中存了更多的键,需要更多的内存空间 ( 如果是攻击,问题更严重 ),比较有效的方法是针对这类数据设置一个较短的过期时间(最长不超过五分钟),让其自动剔除。还有就是缓存层和存储层的数据会有一段时间窗口的不一致,可能会对业务有一定影响。例如过期时间设置为 5分钟,如果此时存储层添加了这个数据,那此段时间就会出现缓存层和存储层数据的不一致,此时可以利用消息系统或者其他方式清除掉缓存层中的空对象
  • 白名单策略,提前预热所有可能查询的参数以hash形式存储,在控制层先进行校验,不符合则丢弃。还有最常见的则是采用布隆过滤器,将所有可能存在的数据哈希到一个足够大的bitmap中,一个一定不存在的数据会被这个bitmap拦截掉,从而避免了对底层存储系统的查询压力
  • 实时监控,实时监控redis命中率中null的占比,平时监测一个数量,如果超过多少倍就认定有攻击,增加黑名单策略
  • key加密,防止黑客知道哪些key不存在,让key加密。

以上就是整个缓存穿透的一个解决方案

性能指标监控

分为性能指标、内存指标、基本活动指标、持久性指标和错误指标几类。

性能指标

性能指标

主要检测的是当前Redis服务器的性能使用状态

单个请求响应时间越快越好平均每秒处理请求数越多越好缓存命中率低,数据库请求压力会大

内存指标

主要检测的是当前Redis服务器的内存使用状态

已使用内存适量最好,不宜过多,过多扛不住;内存碎片率越低说明利用的越好;由于最大内存限制丢弃的key越少越好;阻塞越少越好

基本活动指标

主要检测的是当前Redis服务器的连接状态

客户端连接数不宜过高;slave数量应当适量;最后一次主从交互后的秒数标识数据同步程度;Redis中key的总数如果降低,数据库压力可能会大。

持久性指标

主要检测的是当前Redis服务器的灾备状态

最后一次持久化到磁盘时间戳越大越好;最后一次持久化以后Redis更改数越少越好。这样灾备时丢的数据少。

错误指标

主要检测的是当前Redis服务器的错误状态

被拒绝的连接数过多就需要考虑调整配置;key失败命中次数越少越好;主从断开持续时间越短越好

性能指标指令

压测指令,直接在server服务器进行测试,监测Redis集群能扛住的访问压力:


相关文章
|
12月前
|
缓存 NoSQL 关系型数据库
美团面试:MySQL有1000w数据,redis只存20w的数据,如何做 缓存 设计?
美团面试:MySQL有1000w数据,redis只存20w的数据,如何做 缓存 设计?
美团面试:MySQL有1000w数据,redis只存20w的数据,如何做 缓存 设计?
|
10月前
|
缓存 数据库连接 数据库
缓存三剑客(穿透、击穿、雪崩)
缓存穿透指查询数据库和缓存中都不存在的数据,导致请求直接冲击数据库。解决方案包括缓存空对象和布隆过滤器。缓存击穿是大量请求访问同一个失效的热点数据,使数据库瞬间压力剧增,解决方法有提前预热、设置永不过期、加锁限流等。缓存雪崩是大量key同时失效,导致所有请求直达数据库,可通过引入随机过期时间缓解。三者分别对应单点爆破、全面崩塌等问题,需根据场景选择合适策略优化系统性能与稳定性。
542 0
|
10月前
|
存储 缓存 NoSQL
如何解决缓存击穿?
缓存击穿是指热点数据失效时大量请求直接冲击数据库,可能导致系统崩溃。解决方案包括:永不过期策略避免缓存失效瞬间的穿透;互斥锁控制并发访问;热点预热提前刷新缓存;熔断降级在数据库压力大时返回默认值;二级缓存降低Redis压力。实际中常组合使用多种方案,如热点预热+互斥锁+熔断降级,以提升系统稳定性与性能。
1218 0
|
7月前
|
缓存 负载均衡 监控
135_负载均衡:Redis缓存 - 提高缓存命中率的配置与最佳实践
在现代大型语言模型(LLM)部署架构中,缓存系统扮演着至关重要的角色。随着LLM应用规模的不断扩大和用户需求的持续增长,如何构建高效、可靠的缓存架构成为系统性能优化的核心挑战。Redis作为业界领先的内存数据库,因其高性能、丰富的数据结构和灵活的配置选项,已成为LLM部署中首选的缓存解决方案。
772 25
|
12月前
|
缓存 NoSQL Java
Redis+Caffeine构建高性能二级缓存
大家好,我是摘星。今天为大家带来的是Redis+Caffeine构建高性能二级缓存,废话不多说直接开始~
1558 0
|
8月前
|
存储 缓存 NoSQL
Redis专题-实战篇二-商户查询缓存
本文介绍了缓存的基本概念、应用场景及实现方式,涵盖Redis缓存设计、缓存更新策略、缓存穿透问题及其解决方案。重点讲解了缓存空对象与布隆过滤器的使用,并通过代码示例演示了商铺查询的缓存优化实践。
348 1
Redis专题-实战篇二-商户查询缓存
|
7月前
|
缓存 运维 监控
Redis 7.0 高性能缓存架构设计与优化
🌟蒋星熠Jaxonic,技术宇宙中的星际旅人。深耕Redis 7.0高性能缓存架构,探索函数化编程、多层缓存、集群优化与分片消息系统,用代码在二进制星河中谱写极客诗篇。
1355 3
|
8月前
|
缓存 NoSQL 关系型数据库
Redis缓存和分布式锁
Redis 是一种高性能的键值存储系统,广泛用于缓存、消息队列和内存数据库。其典型应用包括缓解关系型数据库压力,通过缓存热点数据提高查询效率,支持高并发访问。此外,Redis 还可用于实现分布式锁,解决分布式系统中的资源竞争问题。文章还探讨了缓存的更新策略、缓存穿透与雪崩的解决方案,以及 Redlock 算法等关键技术。
|
消息中间件 缓存 NoSQL
基于Spring Data Redis与RabbitMQ实现字符串缓存和计数功能(数据同步)
总的来说,借助Spring Data Redis和RabbitMQ,我们可以轻松实现字符串缓存和计数的功能。而关键的部分不过是一些"厨房的套路",一旦你掌握了这些套路,那么你就像厨师一样可以准备出一道道饕餮美食了。通过这种方式促进数据处理效率无疑将大大提高我们的生产力。
362 32
|
9月前
|
缓存 监控 安全
告别缓存击穿!Go 语言中的防并发神器:singleflight 包深度解析
在高并发场景中,多个请求同时访问同一资源易导致缓存击穿、数据库压力过大。Go 语言提供的 `singleflight` 包可将相同 key 的请求合并,仅执行一次实际操作,其余请求共享结果,有效降低系统负载。本文详解其原理、实现及典型应用场景,并附示例代码,助你掌握高并发优化技巧。
683 0