实现LRU缓存

简介: 实现LRU缓存

正文


package com.breakpoint.lru;
import java.util.Map;
import java.util.concurrent.ConcurrentHashMap;
/**
 * @author 赵立刚 <zlgtop@163.com>
 * Created on 2021-03-08
 */
public class LruCacheTest {
    public static void main(String[] args) {
        LruCache<String, String> lruCache = new LruCache<>(3);
        lruCache.put("1", "1");
        lruCache.put("2", "2");
        lruCache.put("3", "3");
        lruCache.put("4", "4");
        String value = lruCache.getValue("1");
        System.out.println(1);
    }
    public static final class LruCache<K, V> {
        private final Map<K, Node<K, V>> map = new ConcurrentHashMap<>();
        private final Node<K, V> head;
        private final Node<K, V> tail;
        private final int maxSize;
        public LruCache(int maxSize) {
            this.maxSize = maxSize;
            head = new Node<K, V>(null, null);
            tail = new Node<K, V>(null, null);
            head.next = tail;
            tail.pre = head;
        }
        public void put(K key, V value) {
            Node<K, V> kvNode = map.get(key);
            if (null == kvNode) {
                if (maxSize < map.size() + 1) {
                    // 超过了最大的空间
                    Node<K, V> tail = this.tail.pre;
                    this.tail.pre = tail.pre;
                    tail.pre.next=this.tail;
                    map.remove(tail.key);
                }
                Node<K, V> cur = new Node<>(key, value);
                map.put(key, cur);
                head.next.pre = cur;
                cur.next = head.next;
                head.next = cur;
                cur.pre = head;
            } else {
                // 提前
                Node<K, V> pre = kvNode.pre;
                pre.next = kvNode.next;
                kvNode.next.pre = pre;
                // 插入开始位置
                head.next.pre = kvNode;
                kvNode.next = head.next;
                head.next = kvNode;
                kvNode.pre = head;
                // 更新对象
                kvNode.value = value;
            }
        }
        public V getValue(K key) {
            Node<K, V> kvNode = map.get(key);
            if (null != kvNode) {
                // 提前
                Node<K, V> pre = kvNode.pre;
                pre.next = kvNode.next;
                kvNode.next.pre = pre;
                // 插入开始位置
                head.next.pre = kvNode;
                kvNode.next = head.next;
                head.next = kvNode;
                kvNode.pre = head;
                return kvNode.value;
            }
            return null;
        }
        private final class Node<T, V> {
            private T key;
            private V value;
            private Node<K, V> pre;
            private Node<K, V> next;
            public Node(T key, V value) {
                this.key = key;
                this.value = value;
            }
        }
    }
}

时间复杂度O(1)

相关文章
|
3月前
|
缓存 算法 数据挖掘
深入理解缓存更新策略:从LRU到LFU
【10月更文挑战第7天】 在本文中,我们将探讨计算机系统中缓存机制的核心——缓存更新策略。缓存是提高数据检索速度的关键技术之一,无论是在硬件还是软件层面都扮演着重要角色。我们会详细介绍最常用的两种缓存算法:最近最少使用(LRU)和最少使用频率(LFU),并讨论它们的优缺点及适用场景。通过对比分析,旨在帮助读者更好地理解如何选择和实现适合自己需求的缓存策略,从而优化系统性能。
72 3
|
3月前
|
缓存 分布式计算 NoSQL
大数据-47 Redis 缓存过期 淘汰删除策略 LRU LFU 基础概念
大数据-47 Redis 缓存过期 淘汰删除策略 LRU LFU 基础概念
84 2
|
5月前
|
缓存 算法 前端开发
深入理解缓存淘汰策略:LRU和LFU算法的解析与应用
【8月更文挑战第25天】在计算机科学领域,高效管理资源对于提升系统性能至关重要。内存缓存作为一种加速数据读取的有效方法,其管理策略直接影响整体性能。本文重点介绍两种常用的缓存淘汰算法:LRU(最近最少使用)和LFU(最不经常使用)。LRU算法依据数据最近是否被访问来进行淘汰决策;而LFU算法则根据数据的访问频率做出判断。这两种算法各有特点,适用于不同的应用场景。通过深入分析这两种算法的原理、实现方式及适用场景,本文旨在帮助开发者更好地理解缓存管理机制,从而在实际应用中作出更合理的选择,有效提升系统性能和用户体验。
234 1
|
6月前
|
缓存 Python
在Python中,`functools`模块提供了一个非常有用的装饰器`lru_cache()`,它实现了最近最少使用(Least Recently Used, LRU)缓存策略。
在Python中,`functools`模块提供了一个非常有用的装饰器`lru_cache()`,它实现了最近最少使用(Least Recently Used, LRU)缓存策略。
|
5月前
|
存储 缓存 Java
|
5月前
|
存储 缓存 算法
Python 从零开始实现一个简单的LRU缓存
Python 从零开始实现一个简单的LRU缓存
48 0
|
7月前
|
缓存 算法 索引
LeetCode146:LRU缓存
LeetCode146:LRU缓存
56 1
|
6月前
|
缓存 算法 前端开发
前端 JS 经典:LRU 缓存算法
前端 JS 经典:LRU 缓存算法
106 0
|
8月前
|
缓存 算法 Java
数据结构~缓存淘汰算法--LRU算法(Java的俩种实现方式,万字解析
数据结构~缓存淘汰算法--LRU算法(Java的俩种实现方式,万字解析
|
8月前
|
缓存 算法 前端开发
前端开发者必知的缓存淘汰策略:LRU算法解析与实践
前端开发者必知的缓存淘汰策略:LRU算法解析与实践
227 0