缓存淘汰策略

简介: 缓存淘汰策略

LRU 与 LFU 缓存策略及其实现。

应用层缓存

鉴于磁盘和内存读写的差异性,DB 中低频写、高频读的数据适合放入内存中,直接供应用层读写。在项目中读取用户资料时就使用到了 LRU,而非放到 Redis 中。


缓存的 2 个基本实现

Set(key string, value interface) // 写数据
Get(key string) interface{}      // 读数据

缓存的 2 个特征

  • 命中率:即命中数 / 请求数,比值越高即表明缓存使用率越高,缓存更有效。
  • 淘汰策略:内存空间是有限的,当缓存数据占满内存后,若要缓存新数据,则必须淘汰一部分数据。对于 的概念,不同淘汰策略有不同原则。


下边介绍两种常用的淘汰算法:LRU 与 LFU


LRU

缩写:Least Recently Used( 最近 最久 使用),时间维度


原则:若数据在最近一段时间内都未使用(读取或更新),则以后使用几率也很低,应被淘汰。


数据结构


  • 使用链表:由于缓存读写删都是高频操作,考虑使用写删都为 O(1) 的链表,而非写删都为 O(N) 的数组。
  • 使用双链表:选用删除操作为 O(1) 的双链表而非删除为 O(N) 的单链表。
  • 维护额外哈希表:链表查找必须遍历 O(N) 读取,可在缓存中维护 map[key]*Node哈希表来实现O(1) 的链表查找。


直接使用链表节点存储缓存的 K-V 数据,链表从 head 到 tail 使用频率逐步降低。新访问数据不断追加到 head 前边,旧数据不断从 tail 剔除。LRU 使用链表顺序性保证了热数据在 head,冷数据在 tail。

双链表节点存储 K-V 数据:

type Node struct {
  key        string // 淘汰 tail 时需在维护的哈希表中删除,不是冗余存储
  val        interface{}
  prev, next *Node // 双向指针
}
type List struct {
  head, tail *Node
  size       int // 缓存空间大小
}


从上图可知,双链表需实现缓存节点新增 Prepend,剔除 Remove 操作:


func (l *List) Prepend(node *Node) *Node {
  if l.head == nil {
    l.head = node
    l.tail = node
  } else {
    node.prev = nil
    node.next = l.head
    l.head.prev = node
    l.head = node
  }
  l.size++
  return node
}
func (l *List) Remove(node *Node) *Node {
  if node == nil {
    return nil
  }
  prev, next := node.prev, node.next
  if prev == nil {
    l.head = next // 删除头结点
  } else {
    prev.next = next
  }
  if next == nil {
    l.tail = prev // 删除尾结点
  } else {
    next.prev = prev
  }
  l.size--
  node.prev, node.next = nil, nil
  return node
}
// 封装数据已存在缓存的后续操作
func (l *List) MoveToHead(node *Node) *Node {
  if node == nil {
    return nil
  }
  n := l.Remove(node)
  return l.Prepend(n)
}
func (l *List) Tail() *Node {
  return l.tail
}
func (l *List) Size() int {
  return l.size
}


LRU 操作细节

Set(k, v)

  • 数据已缓存,则更新值,挪到 head 前
  • 数据未缓存
  • 缓存空间未满:直接挪到 head 前
  • 缓存空间已满:移除 tail 并将新数据挪到 head 前

Get(k)

  • 命中:节点挪到 head 前,并返回 value
  • 未命中:返回 -1

代码实现:

type LRUCache struct {
  capacity int // 缓存空间大小
  items    map[string]*Node
  list     *List
}
func NewLRUCache(capacity int) *LRUCache {
  return &LRUCache{
    capacity: capacity,
    items:    make(map[string]*Node),
    list:     new(List),
  }
}
func (c *LRUCache) Set(k string, v interface{}) {
  // 命中
  if node, ok := c.items[k]; ok {
    node.val = v                         // 命中后更新值
    c.items[k] = c.list.MoveToHead(node) //
    return
  }
  // 未命中
  node := &Node{key: k, val: v} // 完整的 node
  if c.capacity == c.list.size {
    tail := c.list.Tail()
    delete(c.items, tail.key) // k-v 数据存储与 node 中
    c.list.Remove(tail)
  }
  c.items[k] = c.list.Prepend(node) // 更新地址
}
func (c *LRUCache) Get(k string) interface{} {
  node, ok := c.items[k]
  if ok {
    c.items[k] = c.list.MoveToHead(node)
    return node.val
  }
  return -1
}


测试


func TestLRU(t *testing.T) {
  c := NewLRUCache(2)
  c.Set(K1, 1)
  c.Set(K2, 2)
  c.Set(K1, 100)
  fmt.Println(c.Get(K1)) // 100
  c.Set(K3, 3)
  fmt.Println(c.Get(K2)) // -1
  c.Set(K4, 4)
  fmt.Println(c.Get(K1)) // -1
  fmt.Println(c.Get(K3)) // 3
  fmt.Println(c.Get(K4)) // 4
}


LFU

缩写:Least Frequently Used(最近 最少 使用),频率维度。

原则:若数据在最近一段时间内使用次数少,则以后使用几率也很低,应被淘汰。

对比 LRU,若缓存空间为 3 个数据量:

Set("2", 2)
Set("1", 1)
Get(1)
Get(2)
Set("3", 3) 
Set("4", 4) // LRU 将淘汰 1,缓存链表为 4->3->2
      // LFU 将淘汰 3,未超出容量的时段内 1 和 2 都被使用了两次,3 仅使用一次


数据结构


依旧使用双向链表实现高效写删操作,但 LFU 淘汰原则是 使用次数,数据节点在链表中的位置与之无关。可按使用次数划分 频率梯队,数据节点使用一次就挪到高频梯队。此外维护 minFreq 表示最低梯队,维护 2 个哈希表:

  • map[freq]*List 各频率及其链表
  • map[key]*Node 实现数据节点的 O(1) 读

双链表存储缓存数据:

type Node struct {
  key        string
  val        interface{}
  freq       int // 将节点从旧梯队移除时使用,非冗余存储
  prev, next *Node
}
type List struct {
  head, tail *Node
  size       int
}


LFU 操作细节

Set(k, v)

  • 数据已缓存,则更新值,挪到下一梯队
  • 数据未缓存
  • 缓存空间未满:直接挪到第 1 梯队
  • 缓存空间已满:移除 minFreq 梯队的 tail 节点,并将新数据挪到第 1 梯队

Get(k)

  • 命中:节点挪到下一梯队,并返回 value
  • 未命中:返回 -1

如上的 5 种 case,都要维护好对 minFreq 和 2 个哈希表的读写。

代码实现:


type LFUCache struct {
  capacity int
  minFreq  int // 最低频率
  items map[string]*Node
  freqs map[int]*List // 不同频率梯队
}
func NewLFUCache(capacity int) *LFUCache {
  return &LFUCache{
    capacity: capacity,
    minFreq:  0,
    items:    make(map[string]*Node),
    freqs:    make(map[int]*List),
  }
}
func (c *LFUCache) Get(k string) interface{} {
  node, ok := c.items[k]
  if !ok {
    return -1
  }
  // 移到 +1 梯队中
  c.freqs[node.freq].Remove(node)
  node.freq++
  if _, ok := c.freqs[node.freq]; !ok {
    c.freqs[node.freq] = NewList()
  }
  newNode := c.freqs[node.freq].Prepend(node)
  c.items[k] = newNode // 新地址更新到 map
  if c.freqs[c.minFreq].Size() == 0 {
    c.minFreq++ // Get 的正好是当前值
  }
  return newNode.val
}
func (c *LFUCache) Set(k string, v interface{}) {
  if c.capacity <= 0 {
    return
  }
  // 命中,需要更新频率
  if val := c.Get(k); val != -1 {
    c.items[k].val = v // 直接更新值即可
    return
  }
  node := &Node{key: k, val: v, freq: 1}
  // 未命中
  // 缓存已满
  if c.capacity == len(c.items) {
    old := c.freqs[c.minFreq].Tail() // 最低最旧
    c.freqs[c.minFreq].Remove(old)
    delete(c.items, old.key)
  }
  // 缓存未满,放入第 1 梯队
  c.items[k] = node
  if _, ok := c.freqs[1]; !ok {
    c.freqs[1] = NewList()
  }
  c.freqs[1].Prepend(node)
  c.minFreq = 1
}


minFreq 和 2 个哈希表的维护使 LFU 比 LRU 更难实现。


测试

func TestLFU(t *testing.T) {
  c := NewLFUCache(2)
  c.Set(K1, 1)           // 1:K1
  c.Set(K2, 2)           // 1:K2->K1  
  fmt.Println(c.Get(K1)) // 1:K2 2:K1 // 1
  c.Set(K3, 3)           // 1:K3 2:K1
  fmt.Println(c.Get(K2)) // -1
  fmt.Println(c.Get(K3)) // 2:k3->k1  // 3
  c.Set(K4, 4)           // 1:K4 2:K3
  fmt.Println(c.Get(K1)) // -1
  fmt.Println(c.Get(K3)) // 1:K4 3:K3 // 3
}


总结


常见的缓存淘汰策略有队列直接实现的 FIFO,双链表实现的 LFU 与 LRU,此外还有扩展的 2LRU 与 ARC 等算法,它们的实现不依赖于任意一种数据结构,此外对于旧数据的衡量原则不同,淘汰策略也不一样。


在算法直接实现难度较大的情况下,不妨采用空间换时间,或时间换空间的策略来间接实现。要充分利用各种数据结构的优点并互补,比如链表加哈希表就实现了任意操作 O(1) 复杂度的复合数据结构。


目录
相关文章
|
2月前
|
缓存 Java
Java本地高性能缓存实践问题之Caffeine缓存库中基于时间设置驱逐策略的问题如何解决
Java本地高性能缓存实践问题之Caffeine缓存库中基于时间设置驱逐策略的问题如何解决
|
2天前
|
存储 缓存 监控
|
1天前
|
缓存 分布式计算 NoSQL
大数据-47 Redis 缓存过期 淘汰删除策略 LRU LFU 基础概念
大数据-47 Redis 缓存过期 淘汰删除策略 LRU LFU 基础概念
10 2
|
19天前
|
机器学习/深度学习 缓存 NoSQL
深度学习在图像识别中的应用与挑战后端开发中的数据缓存策略
本文深入探讨了深度学习技术在图像识别领域的应用,包括卷积神经网络(CNN)的原理、常见模型如ResNet和VGG的介绍,以及这些模型在实际应用中的表现。同时,文章也讨论了数据增强、模型集成等改进性能的方法,并指出了当前面临的计算资源需求高、数据隐私等挑战。通过综合分析,本文旨在为深度学习在图像识别中的进一步研究和应用提供参考。 本文探讨了后端开发中数据缓存的重要性和实现方法,通过具体案例解析Redis在实际应用中的使用。首先介绍了缓存的基本概念及其在后端系统性能优化中的作用;接着详细讲解了Redis的常见数据类型和应用场景;最后通过一个实际项目展示了如何在Django框架中集成Redis,
|
1月前
|
缓存 JavaScript 中间件
优化Express.js应用程序性能:缓存策略、请求压缩和路由匹配
在开发Express.js应用时,采用合理的缓存策略、请求压缩及优化路由匹配可大幅提升性能。本文介绍如何利用`express.static`实现缓存、`compression`中间件压缩响应数据,并通过精确匹配、模块化路由及参数化路由提高路由处理效率,从而打造高效应用。
84 5
|
1月前
|
缓存 NoSQL Java
揭秘性能提升的超级武器:掌握Hibernate二级缓存策略!
【9月更文挑战第3天】在软件开发中,性能优化至关重要。使用Hibernate进行数据持久化的应用可通过二级缓存提升数据访问速度。一级缓存随Session生命周期变化,而二级缓存是SessionFactory级别的全局缓存,能显著减少数据库访问次数,提高性能。要启用二级缓存,需在映射文件或实体类上添加相应配置。然而,并非所有场景都适合使用二级缓存,需根据业务需求和数据变更频率决定。此外,还可与EhCache、Redis等第三方缓存集成,进一步增强缓存效果。合理运用二级缓存策略,有助于大幅提升应用性能。
59 5
|
1月前
|
存储 缓存 前端开发
缓存技术在软件开发中的应用与优化策略
缓存技术在软件开发中的应用与优化策略
|
2月前
|
存储 缓存 监控
系统设计:在搜索系统实现缓存的策略与思考
【8月更文挑战第26天】在构建高性能的搜索系统时,缓存策略是优化查询响应时间和减轻后端数据库压力的关键手段。随着数据量的激增和用户查询需求的多样化,如何设计并实现一套高效、可扩展且易于维护的缓存机制,成为了技术团队面临的重要挑战。本文将深入探讨搜索系统中缓存策略的设计思路与实践经验,旨在为读者提供一套系统性的解决方案。
47 1
|
2月前
|
缓存 算法 前端开发
深入理解缓存淘汰策略:LRU和LFU算法的解析与应用
【8月更文挑战第25天】在计算机科学领域,高效管理资源对于提升系统性能至关重要。内存缓存作为一种加速数据读取的有效方法,其管理策略直接影响整体性能。本文重点介绍两种常用的缓存淘汰算法:LRU(最近最少使用)和LFU(最不经常使用)。LRU算法依据数据最近是否被访问来进行淘汰决策;而LFU算法则根据数据的访问频率做出判断。这两种算法各有特点,适用于不同的应用场景。通过深入分析这两种算法的原理、实现方式及适用场景,本文旨在帮助开发者更好地理解缓存管理机制,从而在实际应用中作出更合理的选择,有效提升系统性能和用户体验。
113 1
|
3月前
|
canal 缓存 NoSQL
Redis常见面试题(一):Redis使用场景,缓存、分布式锁;缓存穿透、缓存击穿、缓存雪崩;双写一致,Canal,Redis持久化,数据过期策略,数据淘汰策略
Redis使用场景,缓存、分布式锁;缓存穿透、缓存击穿、缓存雪崩;先删除缓存还是先修改数据库,双写一致,Canal,Redis持久化,数据过期策略,数据淘汰策略
Redis常见面试题(一):Redis使用场景,缓存、分布式锁;缓存穿透、缓存击穿、缓存雪崩;双写一致,Canal,Redis持久化,数据过期策略,数据淘汰策略