Redis内存数据满了导致宕机

本文涉及的产品
云数据库 Redis 版,社区版 2GB
推荐场景:
搭建游戏排行榜
简介: Redis内存数据满了导致宕机

edis 数据库内存数据满了,会宕机吗?答案是:不会让他出现存满的情况,在使用Redis的时候我们要配置Redis能使用的最大的内存大小,存到一定容量的时候还有Redis的内存淘汰策略呢,还有LRU算法进行淘汰,等等。。。

 

接下来就跟着作者一起探讨,Redis的内存淘汰策略。

 

Redis占用内存大小

 

我们知道Redis是基于内存的key-value数据库,因为系统的内存大小有限,所以我们在使用Redis的时候可以配置Redis能使用的最大的内存大小。

 

1、通过配置文件配置

 

通过在Redis安装目录下面的redis.conf配置文件中添加以下配置设置内存大小

 

 

  1. //设置Redis最大占用内存大小为100M
  2. maxmemory 100mb

redis的配置文件不一定使用的是安装目录下面的redis.conf文件,启动redis服务的时候是可以传一个参数指定redis的配置文件的

 

2、通过命令修改

 

Redis支持运行时通过命令动态修改内存大小

 

 

  1. //设置Redis最大占用内存大小为100M
  2. 127.0.0.1:6379> config set maxmemory 100mb
  3. //获取设置的Redis能使用的最大内存大小
  4. 127.0.0.1:6379> config get maxmemory

如果不设置最大内存大小或者设置最大内存大小为0,在64位操作系统下不限制内存大小,在32位操作系统下最多使用3GB内存

 

Redis的内存淘汰

 

既然可以设置Redis最大占用内存大小,那么配置的内存就有用完的时候。那在内存用完的时候,还继续往Redis里面添加数据不就没内存可用了吗?

 

实际上Redis定义了几种策略用来处理这种情况:

 

noeviction(默认策略):对于写请求不再提供服务,直接返回错误(DEL请求和部分特殊请求除外)

 

allkeys-lru:从所有key中使用LRU算法进行淘汰

 

volatile-lru:从设置了过期时间的key中使用LRU算法进行淘汰

 

allkeys-random:从所有key中随机淘汰数据

 

volatile-random:从设置了过期时间的key中随机淘汰

 

volatile-ttl:在设置了过期时间的key中,根据key的过期时间进行淘汰,越早过期的越优先被淘汰

 

当使用volatile-lruvolatile-randomvolatile-ttl这三种策略时,如果没有key可以被淘汰,则和noeviction一样返回错误

 

如何获取及设置内存淘汰策略

 

获取当前内存淘汰策略:

 

 

  1. 127.0.0.1:6379> config get maxmemory-policy
  2. 复制代码

 

通过配置文件设置淘汰策略(修改redis.conf文件):

 

 

  1. maxmemory-policy allkeys-lru
  2. 复制代码

 

通过命令修改淘汰策略:

 

 

  1. 127.0.0.1:6379> config set maxmemory-policy allkeys-lru

 

LRU算法

 

什么是LRU?

 

上面说到了Redis可使用最大内存使用完了,是可以使用LRU算法进行内存淘汰的,那么什么是LRU算法呢?

 

LRU(Least Recently Used),即最近最少使用,是一种缓存置换算法。在使用内存作为缓存的时候,缓存的大小一般是固定的。当缓存被占满,这个时候继续往缓存里面添加数据,就需要淘汰一部分老的数据,释放内存空间用来存储新的数据。这个时候就可以使用LRU算法了。其核心思想是:如果一个数据在最近一段时间没有被用到,那么将来被使用到的可能性也很小,所以就可以被淘汰掉。

 

使用java实现一个简单的LRU算法

 

 

  1. publicclassLRUCache<k, v> {
  2. //容量
  3. privateint capacity;
  4. //当前有多少节点的统计
  5. privateint count;
  6. //缓存节点
  7. privateMap<k, Node<k, v>> nodeMap;
  8. privateNode<k, v> head;
  9. privateNode<k, v> tail;
  10. publicLRUCache(int capacity) {
  11. if(capacity < 1) {
  12. thrownewIllegalArgumentException(String.valueOf(capacity));
  13. }
  14. this.capacity = capacity;
  15. this.nodeMap = newHashMap<>();
  16. //初始化头节点和尾节点,利用哨兵模式减少判断头结点和尾节点为空的代码
  17. Node headNode = newNode(null, null);
  18. Node tailNode = newNode(null, null);
  19.       headNode.next= tailNode;
  20.       tailNode.pre = headNode;
  21. this.head = headNode;
  22. this.tail = tailNode;
  23. }
  24. publicvoid put(k key, v value) {
  25. Node<k, v> node = nodeMap.get(key);
  26. if(node == null) {
  27. if(count >= capacity) {
  28. //先移除一个节点
  29.               removeNode();
  30. }
  31.           node = newNode<>(key, value);
  32. //添加节点
  33.           addNode(node);
  34. } else{
  35. //移动节点到头节点
  36.           moveNodeToHead(node);
  37. }
  38. }
  39. publicNode<k, v> get(k key) {
  40. Node<k, v> node = nodeMap.get(key);
  41. if(node != null) {
  42.           moveNodeToHead(node);
  43. }
  44. return node;
  45. }
  46. privatevoid removeNode() {
  47. Node node = tail.pre;
  48. //从链表里面移除
  49.       removeFromList(node);
  50.       nodeMap.remove(node.key);
  51.       count--;
  52. }
  53. privatevoid removeFromList(Node<k, v> node) {
  54. Node pre = node.pre;
  55. Nodenext= node.next;
  56.       pre.next= next;
  57. next.pre = pre;
  58.       node.next= null;
  59.       node.pre = null;
  60. }
  61. privatevoid addNode(Node<k, v> node) {
  62. //添加节点到头部
  63.       addToHead(node);
  64.       nodeMap.put(node.key, node);
  65.       count++;
  66. }
  67. privatevoid addToHead(Node<k, v> node) {
  68. Nodenext= head.next;
  69. next.pre = node;
  70.       node.next= next;
  71.       node.pre = head;
  72.       head.next= node;
  73. }
  74. publicvoid moveNodeToHead(Node<k, v> node) {
  75. //从链表里面移除
  76.       removeFromList(node);
  77. //添加节点到头部
  78.       addToHead(node);
  79. }
  80. classNode<k, v> {
  81.       k key;
  82.       v value;
  83. Node pre;
  84. Nodenext;
  85. publicNode(k key, v value) {
  86. this.key = key;
  87. this.value = value;
  88. }
  89. }
  90. }

上面这段代码实现了一个简单的LUR算法,代码很简单,也加了注释,仔细看一下很容易就看懂。

 

LRU在Redis中的实现

 

近似LRU算法

 

Redis使用的是近似LRU算法,它跟常规的LRU算法还不太一样。近似LRU算法通过随机采样法淘汰数据,每次随机出5(默认)个key,从里面淘汰掉最近最少使用的key。

 

可以通过maxmemory-samples参数修改采样数量:例:maxmemory-samples 10 maxmenory-samples配置的越大,淘汰的结果越接近于严格的LRU算法

 

Redis为了实现近似LRU算法,给每个key增加了一个额外增加了一个24bit的字段,用来存储该key最后一次被访问的时间。

 

Redis3.0对近似LRU的优化

 

Redis3.0对近似LRU算法进行了一些优化。新算法会维护一个候选池(大小为16),池中的数据根据访问时间进行排序,第一次随机选取的key都会放入池中,随后每次随机选取的key只有在访问时间小于池中最小的时间才会放入池中,直到候选池被放满。当放满后,如果有新的key需要放入,则将池中最后访问时间最大(最近被访问)的移除。

 

当需要淘汰的时候,则直接从池中选取最近访问时间最小(最久没被访问)的key淘汰掉就行。

 

LRU算法的对比

 

我们可以通过一个实验对比各LRU算法的准确率,先往Redis里面添加一定数量的数据n,使Redis可用内存用完,再往Redis里面添加n/2的新数据,这个时候就需要淘汰掉一部分的数据,如果按照严格的LRU算法,应该淘汰掉的是最先加入的n/2的数据。生成如下各LRU算法的对比图

 

 

你可以看到图中有三种不同颜色的点:

 

  • 浅灰色是被淘汰的数据
  • 灰色是没有被淘汰掉的老数据
  • 绿色是新加入的数据

 

我们能看到Redis3.0采样数是10生成的图最接近于严格的LRU。而同样使用5个采样数,Redis3.0也要优于Redis2.8。

 

LFU算法

 

LFU算法是Redis4.0里面新加的一种淘汰策略。它的全称是Least Frequently Used,它的核心思想是根据key的最近被访问的频率进行淘汰,很少被访问的优先被淘汰,被访问的多的则被留下来。

 

LFU算法能更好的表示一个key被访问的热度。假如你使用的是LRU算法,一个key很久没有被访问到,只刚刚是偶尔被访问了一次,那么它就被认为是热点数据,不会被淘汰,而有些key将来是很有可能被访问到的则被淘汰了。如果使用LFU算法则不会出现这种情况,因为使用一次并不会使一个key成为热点数据。

 

LFU一共有两种策略:

 

volatile-lfu:在设置了过期时间的key中使用LFU算法淘汰key

allkeys-lfu:在所有的key中使用LFU算法淘汰数据

 

设置使用这两种淘汰策略跟前面讲的一样,不过要注意的一点是这两周策略只能在Redis4.0及以上设置,如果在Redis4.0以下设置会报错

相关实践学习
基于Redis实现在线游戏积分排行榜
本场景将介绍如何基于Redis数据库实现在线游戏中的游戏玩家积分排行榜功能。
云数据库 Redis 版使用教程
云数据库Redis版是兼容Redis协议标准的、提供持久化的内存数据库服务,基于高可靠双机热备架构及可无缝扩展的集群架构,满足高读写性能场景及容量需弹性变配的业务需求。 产品详情:https://www.aliyun.com/product/kvstore &nbsp; &nbsp; ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库&nbsp;ECS 实例和一台目标数据库&nbsp;RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&amp;RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
12天前
|
缓存 NoSQL Java
Java高并发实战:利用线程池和Redis实现高效数据入库
Java高并发实战:利用线程池和Redis实现高效数据入库
32 0
|
1月前
|
存储 监控 负载均衡
保证Redis的高可用性是一个涉及多个层面的任务,主要包括数据持久化、复制与故障转移、集群化部署等方面
【5月更文挑战第15天】保证Redis高可用性涉及数据持久化、复制与故障转移、集群化及优化策略。RDB和AOF是数据持久化方法,哨兵模式确保故障自动恢复。Redis Cluster实现分布式部署,提高负载均衡和容错性。其他措施包括身份认证、多线程、数据压缩和监控报警,以增强安全性和稳定性。通过综合配置与监控,可确保Redis服务的高效、可靠运行。
200 2
|
1月前
|
存储 监控 NoSQL
Redis处理大量数据主要依赖于其内存存储结构、高效的数据结构和算法,以及一系列的优化策略
【5月更文挑战第15天】Redis处理大量数据依赖内存存储、高效数据结构和优化策略。选择合适的数据结构、利用批量操作减少网络开销、控制批量大小、使用Redis Cluster进行分布式存储、优化内存使用及监控调优是关键。通过这些方法,Redis能有效处理大量数据并保持高性能。
53 1
|
1天前
|
NoSQL Redis
redis使用jackson序列化数据配置文件
redis使用jackson序列化数据配置文件
14 5
|
2天前
|
分布式计算 NoSQL 大数据
MaxCompute产品使用问题之数据在redis里可以通过接口调用到大数据计算吗
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
8天前
|
存储 缓存 NoSQL
Redis是一种高性能的内存数据库,常用于高并发环境下的缓存解决方案
【6月更文挑战第18天】**Redis摘要:** 高性能内存数据库,擅长高并发缓存。数据存内存,访问迅速;支持字符串、列表等多元数据类型;具备持久化防止数据丢失;丰富命令集便于操作;通过节点集群实现数据分片与负载均衡,增强可用性和扩展性。理想的缓存解决方案。
22 1
|
10天前
|
NoSQL 关系型数据库 MySQL
实时计算 Flink版产品使用问题之如何确保多并发sink同时更新Redis值时,数据能按事件时间有序地更新并且保持一致性
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
14天前
|
SQL 分布式计算 NoSQL
使用Spark高效将数据从Hive写入Redis (功能最全)
使用Spark高效将数据从Hive写入Redis (功能最全)
|
16天前
|
分布式计算 NoSQL 大数据
MaxCompute产品使用合集之自定义udf连接云上vpc网络的redis获取数据的步骤是什么
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
17天前
|
存储 消息中间件 缓存
Redis:内存数据存储与缓存系统的技术探索
**Redis 概述与最佳实践** Redis,全称Remote Dictionary Server,是流行的内存数据结构存储系统,常用于数据库、缓存和消息中介。它支持字符串、哈希、列表等数据结构,并具备持久化、主从复制、集群部署及发布/订阅功能。Redis适用于缓存系统、计数器、消息队列、分布式锁和实时系统等场景。最佳实践包括选择合适的数据结构、优化缓存策略、监控调优、主从复制与集群部署以及确保安全配置。
22 3