【巡检问题分析与最佳实践】Redis CPU高问题

本文涉及的产品
云原生数据库 PolarDB MySQL 版,Serverless 5000PCU 100GB
云原生数据库 PolarDB 分布式版,标准版 2核8GB
云数据库 RDS MySQL Serverless,0.5-2RCU 50GB
简介: 默认情况下,社区版Redis使用单线程模型处理读写请求,这使得CPU的使用率显得尤为重要。当实例的CPU打满时会导致数据库响应缓慢,严重影响线上业务。

往期分享

RDS MySQL

RDS MySQL 实例空间问题

RDS MySQL 内存使用问题

RDS MySQL 活跃线程数高问题

RDS MySQL 慢SQL问题

RDS MySQL 实例IO高问题

RDS MySQL 小版本升级最佳实践

RDS PostgreSQL

RDS PostgreSQL 实例IO高问题

RDS PostgreSQL 慢SQL问题

RDS PostgreSQL CPU高问题

RDS SQL Server

RDS SQL Server 磁盘IO吞吐高问题

RDS SQL Server CPU高问题

RDS SQL Server 空间使用问题

Redis

Redis 流控问题

Redis 内存高问题

概述

默认情况下,社区版Redis使用单线程模型处理读写请求,这使得CPU的使用率显得尤为重要。当实例的CPU打满时会导致数据库响应缓慢,严重影响线上业务。

本文将由浅入深帮您查看、分析和优化云数据库Redis的CPU使用率。

查看CPU使用

     部署架构为主备模式下,只提供当前主节点的CPU使用。通过监控图查看CPU的使用率非常方便,点击控制台"性能监控"后一目了然。

1.png

部署架构为Redis集群/读写分离模式下,由于多个物理节点组成了一个逻辑实例,且可能通过多个Proxy节点做路由转发和负载均衡,通过监控图查看CPU使用率时一般只需要关注该集群数据节点的CPU使用率,"数据节点聚合指标","Proxy节点聚合指标","Proxy"中的CPU使用率请忽略。2.png

CPU使用率高的一般排查步骤

     由于社区版Redis6.0以下的版本使用单线程处理IO请求,所以基本上Redis进程本身也只能用到CPU的一个核,当CPU使用率超过80%时,就需要引起开发者的高度重视。一般可以大概分为以下几个步骤

确认是否存在流量突增/热点Key

     在没有明显慢SQL的情况下,读写流量突增是引起Redis High CPU的常见原因,云数据库Redis不同的产品形态和实例规格对应了不同的QPS上限。

     详情建议参考:

     但需要注意的,这里提供的结果仅仅作为基准压测的参考,在实际的生产环境中,某个Redis实例能够承载的QPS上限往往与key和value的平均长度,key的数据类型,内网带宽等息息相关。也就是说,当前Redis实例的处理能力上限要以实际的业务压测为准,当业务代码没有任何变动的情况下CPU突增,建议您结合监控图先观察当前Redis实例的各项QPS指标是否同样存在突增。

     另外阿里云支持Redis热点key的实时和历史情况查看,详细可参考:

   如果纯粹是由于业务增长/热点Key引起的Redis CPU使用率高,那么优化思路一般有以下几种,本质上就是通过多线程或者架构升级的方式解决:

  • 进行业务拆分,不同的业务使用不同的Redis实例
  • 针对一些hash结构的超热点key(单key请求过10w),可以考虑将其拆分成string类型并存放至多个Redis实例中
  • 针对string类型的超热点key(单key写请求过10w),在业务架构无法限流的情况下,必须使用阿里云“性能增强版”,多线程IO处理模型可以抗住20w以上的单key请求量
  • 针对读多写少的场景,可以考虑使用阿里云Redis读写分离版,通过添加只读实例的方式抗住高并发读请求
  • 针对写多读少的场景,可以考虑使用阿里云Redis集群版,注意使用读写分离/集群版以后,可能存在少部分Redis命令的兼容性

     我们做一下简单对比,比如阿里云Redis社区标准版能够承载的QPS为K(社区标准版性能基本上与社区开源保持一致,基准压测的情况下一般在10w左右),如下表格即为阿里云主流Redis产品形态下的读写QPS总数参考。

Redis社区版

集群

Redis社区版

读写分离

Redis企业版-性能增强型主备

Redis企业版-性能增强型集群

Redis企业版-性能增强型读写分离

写(key均匀情况)

K*分片数

K

K*3

K*3*分片数

K*3

读(key均匀情况)

K*分片数

K*只读节点数

K*3

K*3*分片数

K*3*只读节点

写(热key)

K(最坏情况)

K

K*3

K*3

K*3

读(热key)

K(最坏情况)

K*只读节点数

K*3

K*3

K*3*只读节点

确认是否存在慢SQL

     在阿里云数据库Redis中,默认执行时间超过20ms的称为慢SQL,会记录到慢SQL FIFO队列以供查看。查询执行时间指的是不包括像客户端响应(talking)、发送回复等 IO 操作,而单单是执行一个查询命令所耗费的时间,您可以通过控制台提供的参数slowlog-log-slower-than和slowlog-max-len自定义配置慢SQL阈值和保存条数。您可以通过Redis自带得slowlog get指令查看慢SQL,也可以通过阿里云控制台CloudDBA查看,详细内容请参考:

     通常Redis指令消耗的CPU与指令的时间复杂度息息相关,一般认为O(N)或以上的复杂度在业务代码设计时需要谨慎对待它对应的流量评估。具体每个Redis指令的时间复杂度请参考官方文档:https://redis.io/commands

     最常见的慢SQL包括KEYS LRANGE EVAL HGETALL PUBSUB等,一般都是扫描量比较大,KEY比较大,涉及到Redis计算逻辑的指令,这些较为消耗CPU资源的指令详情和原理请参考:

     由于Redis提供有相对较多的数据类型,而诸如Hash,List等常见数据类型中列表长度上限较高,所以在实际使用中很容易导致big key问题,阿里云Redis控制台CloudDBA提供有"缓存分析"找出实例中的存在性能隐患的大Key,详情可参考:https://help.aliyun.com/document_detail/102093.html

确认是否存在流量不均

     在使用读写分离/集群架构模式下,当集群出现响应延迟时,首先需要确认是集群下所有对外提供服务的物理节点均出现High CPU还是部分节点出现热点的情况。

     除了上述提到的big key和热点key容易引起的集群数据倾斜和流量不均以外,还有几种情况可能导致读写分离架构下的各个主节点,只读节点之间的流量不均:

  • scan系列命令由于存在上下文关系,需要将该类命令全部转发至第一个只读节点
  • bitfield命令混合了读写属性,默认情况下只会转发至主节点,这点阿里云Redis已优化,可提工单开启,详细参考:https://zhuanlan.zhihu.com/p/139747397

通用最佳实践

    关于以上可能引起的CPU打满的情况,通用的最佳实践有以下几点:

  • 优先设计合理的数据结构和逻辑,各指令的流量评估,并进行实际的业务压测。
  • 尽量不要使用pubsub做消息订阅和分发,Redis实际上并不适合。
  • 尽量避免使用lua做事务,脚本编译和加载会非常消耗CPU,建议使用扩展数据结构代替,如果需要实现高性能分布式锁建议使用企业版Redis,详细可参考:https://help.aliyun.com/document_detail/146758.html
  • Hash结构不适合存放通质且大量的key,容易引起数据倾斜并造成big key问题。
  • 尽量避免使用blocking的API,如blpop,brpop等。
  • 尽量避免keys命令的模糊匹配,当数据量上涨后一定会出现问题,建议使用scan命令代替,针对危险命令可以在控制台禁用,详细可参考:https://help.aliyun.com/document_detail/107695.html

特殊场景下的High CPU

    在一些特殊情况下,Redis也会更加消耗CPU,我们在实际运维的过程中一般有遇到以下情况:

  • 节点宕机导致的全量同步,期间存在部分对外服务节点无法提供读负载均衡。
  • Redis超高频使用incr指令作为计数器应用时,master节点CPU使用率可能比slave高很多,因为master向slave传输数据时可能做了合并,类似于pipeline,所以slave节点需要回放的请求数更少,消耗的CPU更低。
  • 高频建连操作可能消耗更多的CPU,因为连接的建立和释放均会消耗一定的CPU,建议使用连接池,或者升级至Proxy集群,企业性能增强版等Redis产品。
  • 在连接数较多的情况下频繁调用info指令查看各项监控信息可能导致CPU使用率更高,因为部分info子命令的监控信息统计需要遍历每一个client连接,所以当连接数超过5k的情况下建议控制info的频率。
  • 频繁的AOF可能导致更高的CPU消耗,如果是将Redis纯粹当作Cache使用的场景,建议关闭AOF持久化,详细参考:https://redis.io/commands/bgrewriteaof






相关实践学习
基于Redis实现在线游戏积分排行榜
本场景将介绍如何基于Redis数据库实现在线游戏中的游戏玩家积分排行榜功能。
云数据库 Redis 版使用教程
云数据库Redis版是兼容Redis协议标准的、提供持久化的内存数据库服务,基于高可靠双机热备架构及可无缝扩展的集群架构,满足高读写性能场景及容量需弹性变配的业务需求。 产品详情:https://www.aliyun.com/product/kvstore     ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
10月前
|
NoSQL 安全 Linux
Redis 从入门到精通之内存和CPU配置优化
Redis 是一种基于内存的数据存储系统,因此内存的规划是非常重要的。在配置 Redis 内存时,应该避免物理内存使用过量导致大量使用 Swap,同时需要考虑内存碎片的问题。根据多年的经验整理了一些建议
533 1
|
NoSQL Redis 监控
redis与CPU、内存
redis与CPU、内存任何一个后端应用,包括代码都要考虑对于CPU和内存的影响.redis本质上类似于nodejs,单进程、单线程,事件驱动,但不同的是redis是CPU密集型的。这里列出了redis与内存CPU的相关考虑点。
2046 0
|
14天前
|
NoSQL Linux Redis
06- 你们使用Redis是单点还是集群 ? 哪种集群 ?
**Redis配置:** 使用哨兵集群,结构为1主2从,加上3个哨兵节点,总计分布在3台Linux服务器上,提供高可用性。
102 0
|
22天前
|
负载均衡 监控 NoSQL
Redis的集群方案有哪些?
Redis集群包括主从复制(基础,手动故障恢复)、哨兵模式(自动高可用)和Redis Cluster(官方分布式解决方案,自动分片和容错)。此外,还有如Codis、Redisson和Twemproxy等第三方工具用于代理和负载均衡。选择方案需考虑应用场景、数据规模和并发需求。
51 2
|
28天前
|
NoSQL Redis
Redis集群(六):集群常用命令及说明
Redis集群(六):集群常用命令及说明
45 0
|
2月前
|
运维 NoSQL 算法
Redis-Cluster 与 Redis 集群的技术大比拼
Redis-Cluster 与 Redis 集群的技术大比拼
46 0
|
22天前
|
NoSQL Java 测试技术
面试官:如何搭建Redis集群?
**Redis Cluster** 是从 Redis 3.0 开始引入的集群解决方案,它分散数据以减少对单个主节点的依赖,提升读写性能。16384 个槽位分配给节点,客户端通过槽位信息直接路由请求。集群是无代理、去中心化的,多数命令直接由节点处理,保持高性能。通过 `create-cluster` 工具快速搭建集群,但适用于测试环境。在生产环境,需手动配置文件,启动节点,然后使用 `redis-cli --cluster create` 分配槽位和从节点。集群动态添加删除节点、数据重新分片及故障转移涉及复杂操作,包括主从切换和槽位迁移。
31 0
面试官:如何搭建Redis集群?
|
26天前
|
存储 缓存 NoSQL
【Redis深度专题】「核心技术提升」探究Redis服务启动的过程机制的技术原理和流程分析的指南(集群功能分析)(一)
【Redis深度专题】「核心技术提升」探究Redis服务启动的过程机制的技术原理和流程分析的指南(集群功能分析)
147 0
|
1月前
|
NoSQL Redis Docker
使用Docker搭建一个“一主两从”的 Redis 集群(超详细步骤)
使用Docker搭建一个“一主两从”的 Redis 集群(超详细步骤)
63 0
|
1月前
|
存储 监控 NoSQL
Redis 架构深入:主从复制、哨兵到集群
大家好,我是小康,今天我们来聊下 Redis 的几种架构模式,包括主从复制、哨兵和集群模式。
Redis 架构深入:主从复制、哨兵到集群