剑指Offer II 031. 最近最少使用缓存(LRU)

简介: 运用所掌握的数据结构,设计和实现一个 LRU (Least Recently Used,最近最少使用) 缓存机制 。

一、题目描述


     

运用所掌握的数据结构,设计和实现一个  LRU (Least Recently Used,最近最少使用) 缓存机制 。


实现 LRUCache 类:


LRUCache(int capacity) 以正整数作为容量 capacity 初始化 LRU 缓存

int get(int key) 如果关键字 key 存在于缓存中,则返回关键字的值,否则返回 -1 。

void put(int key, int value) 如果关键字已经存在,则变更其数据值;如果关键字不存在,则插入该组「关键字-值」。当缓存容量达到上限时,它应该在写入新数据之前删除最久未使用的数据值,从而为新的数据值留出空间。


示例:

输入

["LRUCache", "put", "put", "get", "put", "get", "put", "get", "get", "get"]

[[2], [1, 1], [2, 2], [1], [3, 3], [2], [4, 4], [1], [3], [4]]


输出

[null, null, null, 1, null, -1, null, -1, 3, 4]


解释

LRUCache lRUCache = new LRUCache(2);
lRUCache.put(1, 1); // 缓存是 {1=1}
lRUCache.put(2, 2); // 缓存是 {1=1, 2=2}
lRUCache.get(1);    // 返回 1
lRUCache.put(3, 3); // 该操作会使得关键字 2 作废,缓存是 {1=1, 3=3}
lRUCache.get(2);    // 返回 -1 (未找到)
lRUCache.put(4, 4); // 该操作会使得关键字 1 作废,缓存是 {4=4, 3=3}
lRUCache.get(1);    // 返回 -1 (未找到)
lRUCache.get(3);    // 返回 3
lRUCache.get(4);    // 返回 4


提示:


1 <= capacity <= 3000

0 <= key <= 10000

0 <= value <= 105

最多调用 2 * 105 次 get 和 put


进阶:是否可以在 O(1) 时间复杂度内完成这两种操作?


二、思路讲解


     

为什么使用双向链表?因为如果使用数组,最近使用的节点移到头部,时间复杂度为O(N);而使用链表,可以降到O(1)


为什么使用哈希表?因为链表的查找时间复杂度为O(N),使用哈希表,在不发生哈希冲突的情况下可以降到O(1)


三、Java代码实现



class LRUCache {
    //自定义双向链表
    class Entry {
        int key;
        int value;
        Entry prev;
        Entry next;
        public Entry() {}
        public Entry(int key, int value){
            this.key = key;
            this.value = value;
        }
    }
    Entry head, tair;               //头、尾结点
    int capacity;                   //容量
    int size;                       //当前大小
    Map<Integer, Entry> cache;      //HashMap
    public LRUCache(int capacity) {
        this.capacity = capacity;
        //初始化双向链表
        initLinkedList();
        size = 0;
        cache = new HashMap<>(capacity+2);
    }
    /**
        如果关键字 key 存在于缓存中,则返回关键字的值,否则返回 -1
     */
    public int get(int key) {
        Entry node = cache.get(key);
        if(node == null) {
            return -1;
        }
        moveToHead(node);
        return node.value;
    }
    /**
        如果key存在,替换掉,再移到最前面
        如果key不存在,
            如果缓存容量达到上限,先删尾结点,再头插
            如果缓存容量未达上限,头插
     */
    public void put(int key, int value) {
        Entry node = cache.get(key);
        //如果key位置上存在节点
        if(node != null) {
            node.value = value;
            moveToHead(node);
            return;
        }
        //如果不存在
        //如果entry已满,删除最后一个节点
        if(size == capacity) {
            Entry lastNode = tair.prev;
            deleteNode(lastNode);
            cache.remove(lastNode.key);
            size--;
        }
        //把当前节点头插
        Entry newNode = new Entry();
        newNode.key = key;
        newNode.value = value;
        addNode(newNode);
        cache.put(key, newNode);
        size++;
    }
    /**
        初始化双向链表  
     */
    private void initLinkedList() {
        head = new Entry();
        tair = new Entry();
        head.next = tair;
        tair.prev = head;
    }
    /**
        将当前节点移到最前面(头结点之后)
     */
    private void moveToHead(Entry node) {
        //首先删除原来节点关系
        deleteNode(node);
        addNode(node);
    }
    /**
        删除当前节点
     */
    private void deleteNode(Entry node) {
        node.prev.next = node.next;
        node.next.prev = node.prev;
    }
    /**
        头插
     */
    private void addNode(Entry node) {
        head.next.prev = node;
        node.next = head.next;
        node.prev = head;
        head.next = node;
    }
}
/**
 * Your LRUCache object will be instantiated and called as such:
 * LRUCache obj = new LRUCache(capacity);
 * int param_1 = obj.get(key);
 * obj.put(key,value);
 */


参考:不该这么嚣张的,B站面试官水平真高,手写LRU算法失算了_哔哩哔哩_bilibili

相关文章
|
1月前
|
缓存 算法 数据挖掘
深入理解缓存更新策略:从LRU到LFU
【10月更文挑战第7天】 在本文中,我们将探讨计算机系统中缓存机制的核心——缓存更新策略。缓存是提高数据检索速度的关键技术之一,无论是在硬件还是软件层面都扮演着重要角色。我们会详细介绍最常用的两种缓存算法:最近最少使用(LRU)和最少使用频率(LFU),并讨论它们的优缺点及适用场景。通过对比分析,旨在帮助读者更好地理解如何选择和实现适合自己需求的缓存策略,从而优化系统性能。
48 3
|
1月前
|
缓存 分布式计算 NoSQL
大数据-47 Redis 缓存过期 淘汰删除策略 LRU LFU 基础概念
大数据-47 Redis 缓存过期 淘汰删除策略 LRU LFU 基础概念
65 2
|
3月前
|
缓存 算法 前端开发
深入理解缓存淘汰策略:LRU和LFU算法的解析与应用
【8月更文挑战第25天】在计算机科学领域,高效管理资源对于提升系统性能至关重要。内存缓存作为一种加速数据读取的有效方法,其管理策略直接影响整体性能。本文重点介绍两种常用的缓存淘汰算法:LRU(最近最少使用)和LFU(最不经常使用)。LRU算法依据数据最近是否被访问来进行淘汰决策;而LFU算法则根据数据的访问频率做出判断。这两种算法各有特点,适用于不同的应用场景。通过深入分析这两种算法的原理、实现方式及适用场景,本文旨在帮助开发者更好地理解缓存管理机制,从而在实际应用中作出更合理的选择,有效提升系统性能和用户体验。
186 1
|
4月前
|
缓存 Python
在Python中,`functools`模块提供了一个非常有用的装饰器`lru_cache()`,它实现了最近最少使用(Least Recently Used, LRU)缓存策略。
在Python中,`functools`模块提供了一个非常有用的装饰器`lru_cache()`,它实现了最近最少使用(Least Recently Used, LRU)缓存策略。
|
3月前
|
存储 缓存 Java
|
3月前
|
存储 缓存 算法
Python 从零开始实现一个简单的LRU缓存
Python 从零开始实现一个简单的LRU缓存
42 0
|
5月前
|
缓存 算法 索引
LeetCode146:LRU缓存
LeetCode146:LRU缓存
39 1
|
4月前
|
缓存 算法 前端开发
前端 JS 经典:LRU 缓存算法
前端 JS 经典:LRU 缓存算法
94 0
|
6月前
|
存储 缓存 算法
面试遇到算法题:实现LRU缓存
V哥的这个实现的关键在于维护一个双向链表,它可以帮助我们快速地访问、更新和删除最近最少使用的节点,同时使用哈希表来提供快速的查找能力。这样,我们就可以在 O(1) 的时间复杂度内完成所有的缓存操作。哈哈干净利索,回答完毕。
|
6月前
|
存储 缓存 Java
java如何实现一个LRU(最近最少使用)缓存?
实现了一个LRU缓存,使用双向链表保持访问顺序,哈希表用于定位元素。Java代码中,`LRUCache`类包含容量、哈希表及链表头尾节点。`get`方法查哈希表,找到则移动至链表头并返回值,否则返回-1。`put`方法更新或插入节点,超出容量则移除最不常用节点。
58 6