【数据结构与算法】LRU Cache

简介: 【数据结构与算法】LRU Cache

👉LRU Cache👈


什么是LRU Cache


LRU 是 Least Recently Used 的缩写,意思是最近最少使用,它是一种 Cache 替换算法。 什么是Cache?狭义的 Cache 指的是位于 CPU 和主存间的快速 RAM(随机存取存储器), 通常它不像系统主存那样使用 DRAM 技术,而使用昂贵但较快速的 SRAM 技术。 广义上的Cache 指的是位于速度相差较大的两种硬件之间, 用于协调两者数据传输速度差异的结构。除了 CPU与 主存之间有 Cache, 内存与硬盘之间也有 Cache,乃至在硬盘与网络之间也有某种意义上 Cache,称为 Internet 临时文件夹或网络内容缓存等。

2600fabb68974cdca088693779948028.png

6a72aa641ada483a998169afc9a6476a.png

Cache 的容量有限,因此当 Cache 的容量用完后,而又有新的内容需要添加进来时, 就需要挑选并舍弃原有的部分内容,从而腾出空间来放新内容。LRU Cache 的替换原则就是将最近最少使用的内容替换掉。其实,LRU 译成最久未使用会更形象, 因为该算法每次替换掉的就是一段时间内最久没有使用过的内容。


LRU Cache的实现


实现 LRU Cache 的方法和思路很多,但是要保持高效实现O(1) 的 put 和 get,那么使用双向链表和哈希表的搭配是最高效和经典的。使用双向链表是因为双向链表可以实现任意位置 O(1) 的插入和删除,使用哈希表是因为哈希表的增删查改也是 O(1)。

c6e65116543f4194ba2b0dcb9e62bd8b.png


LRU 缓存

dcf091984c6f486daa2738dd95a50505.png

splice 函数可以转移链表中的节点

5b37749b973c40c3b8156890b298e848.png


哈希表能够保证查找和更新 key 值对应的 value 的时间复杂度为 O(1),也就是能保证 get。那关键点是如何保证 LRU 呢?如果 key 值在哈希表中,那么就 key 值就是最经常访问的值,需要将它放到双向链表的头部(假设双向链表尾部的数据是最近最少用的数据)。因为我们并不知道 key 值在双向链表中的位置,那就无法做到 O(1) 的时间复杂度将 key 值放到链表的头部。那如何解决呢?我们做到的是找到 key 值,就能够找到 key 值在双向链表中的位置。那么我们可以让哈希表存的是 key 值和 key 值在双向链表中的位置(迭代器),双向链表存储是键值对pair<key, value>,这样就能够保证 LRU Cache 了(通过 splice 来调整 key 值在链表中的位置)。

30da6ba4dff64dada676915ecf72cbbe.png

class LRUCache 
{
public:
    LRUCache(int capacity) 
        : _capacity(capacity)
    {}
    int get(int key) 
    {
        auto ret = _hashMap.find(key);
        // 哈希表中有key
        if(ret != _hashMap.end())
        {
            // 更新key的位置
            // 1.erase + push_front 更新迭代器,原迭代器失效
            // 2.splice 将节点转移到头部
            ListIterator it = ret->second;
            _LRUList.splice(_LRUList.begin(), _LRUList, it);
            return it->second; 
        }
        else
            return -1;
    }
    void put(int key, int value) 
    {
        // 1.新增 2.更新
        auto ret = _hashMap.find(key);
        if(ret == _hashMap.end())   // 哈希表中没有key
        {
            // 满了,先删除最近最少用的数据
            if(_capacity == _hashMap.size())
            {
                pair<int, int> LRUData = _LRUList.back();
                _hashMap.erase(LRUData.first);
                _LRUList.pop_back();
            }
            _LRUList.push_front(make_pair(key, value));
            _hashMap[key] = _LRUList.begin();
        }
        else
        {
            // 更新key对应的值
            ListIterator it = ret->second;
            it->second = value;
            // 更新key对应值的位置
            // 1.erase + push_front 更新迭代器,原迭代器失效
            // 2.splice 将节点转移到头部
            _LRUList.splice(_LRUList.begin(), _LRUList, it);
        }
    }
private:
    typedef list<pair<int, int>>::iterator ListIterator;
    // 哈希表做到查找和更新的时间复杂度为O(1)
    // 哈希表中存的是key和key在_LRUList中的位置(迭代器)
    unordered_map<int, ListIterator> _hashMap;
    // LRU假设链表尾部的数据是最近最少用的数据
    // _LRUList中存储的是键值对pair
    list<pair<int, int>> _LRUList;
    size_t _capacity;   // 容量
};

408ac4789b7c42899ffd70b4a7434867.png

👉总结👈


本篇博客主要讲解了什么是 LRU Cache 以及如何设计 LRU Cache等。那么以上就是本篇博客的全部内容了,如果大家觉得有收获的话,可以点个三连支持一下!谢谢大家!💖💝❣️


相关文章
|
7天前
|
缓存 NoSQL 容器
实战:实现一个LRU
实战:实现一个LRU
|
7天前
|
存储 缓存 算法
从0开始回顾数据结构---LRU,LFU算法
题意解释 请为LFU缓存设计一个数据结构。支持两种操作:get和set。 ● get(key) : 如果key在缓存中,则返回key对应的值;否则返回-1; ● put(key, value): 如果key在缓存中,则更新key对应的值;否则插入(key, value),如果缓存已满,则先删除使用频率最小的key,如果有多个key具有相同的使用频率,则应该删除最久未使用的key。 C++代码 class LFUCache { public: struct Node { Node *left, *right; int key, val;
|
7天前
|
算法
手写一个简单的LRU Cache
手写一个简单的LRU Cache
34 0
|
7天前
|
缓存
leetcode-146:LRU 缓存
leetcode-146:LRU 缓存
19 0
|
10月前
|
存储 缓存 算法
【数据结构】——LRU Cache
LRU缓存的原理及实现
|
缓存 算法 Java
剑指Offer II 031. 最近最少使用缓存(LRU)
运用所掌握的数据结构,设计和实现一个 LRU (Least Recently Used,最近最少使用) 缓存机制 。
|
缓存
leetcode 146 LRU缓存
leetcode 146 LRU缓存
87 0
leetcode 146 LRU缓存
|
缓存 算法
LeetCode 146. LRU Cache
运用你所掌握的数据结构,设计和实现一个 LRU (最近最少使用) 缓存机制。它应该支持以下操作: 获取数据 get 和 写入数据 put 。
75 0
LeetCode 146. LRU Cache
|
存储 缓存 算法
从 LRU Cache 带你看面试的本质
在讲这道题之前,我想先聊聊「技术面试究竟是在考什么」这个问题。
194 0
从 LRU Cache 带你看面试的本质
|
缓存 NoSQL Redis
动手实现一个 LRU cache(上)
LRU 是 Least Recently Used 的简写,字面意思则是最近最少使用。 通常用于缓存的淘汰策略实现,由于缓存的内存非常宝贵,所以需要根据某种规则来剔除数据保证内存不被撑满。