`

LRU Cache

 
阅读更多

原创转载请注明出处:http://agilestyle.iteye.com/blog/2356978

 

LRU Cache

LRU —— Least Recently Used,即 最近最少使用;也就是说LRU Cache把最近最少使用的数据移除,让给最新读取的数据,而往往最常读取的,也是读取次数最多的,所以,利用LRU Cache,能够提高系统的性能。


 

 

要实现 LRU 缓存,我们首先要用到一个类 LinkedHashMap。

用这个类有两大好处:

  • 它本身已经实现了按照访问顺序的存储,也就是说,最近读取的会放在最前面,最不常读取的会放在最后(当然,它也可以实现按照插入顺序存储)。
  • LinkedHashMap 本身有一个方法用于判断是否需要移除最不常读取的数,但是,原始方法默认不需要移除(这时LinkedHashMap 相当于一个Linkedlist),所以需要 override 这样一个方法,使得当缓存里存放的数据个数超过规定个数后,就把最不常用的移除掉。
import java.util.ArrayList;
import java.util.Collection;
import java.util.LinkedHashMap;
import java.util.Map;

/**
 * An LRU cache, based on <code>LinkedHashMap</code>.
 *
 * <p>
 * This cache has a fixed maximum number of elements (<code>cacheSize</code>).
 * If the cache is full and another entry is added, the LRU (least recently
 * used) entry is dropped.
 *
 * <p>
 * This class is thread-safe. All methods of this class are synchronized.
 *
 * <p>
 * Author: Christian d'Heureuse, Inventec Informatik AG, Zurich, Switzerland<br>
 * Multi-licensed: EPL / LGPL / GPL / AL / BSD.
 */
public class LRUCache<K, V> {
    private static final float hashTableLoadFactor = 0.75f;
    private LinkedHashMap<K, V> map;
    private int cacheSize;

    /**
     * Creates a new LRU cache.
     *
     * @param cacheSize the maximum number of entries that will be kept in this cache.
     */
    public LRUCache(int cacheSize) {
        this.cacheSize = cacheSize;
        int hashTableCapacity = (int) Math.ceil(cacheSize / hashTableLoadFactor) + 1;
        map = new LinkedHashMap<K, V>(hashTableCapacity, hashTableLoadFactor, true) {
            // (an anonymous inner class)
            private static final long serialVersionUID = 1;

            @Override
            protected boolean removeEldestEntry(Map.Entry<K, V> eldest) {
                return size() > LRUCache.this.cacheSize;
            }
        };
    }

    /**
     * Retrieves an entry from the cache.<br>
     * The retrieved entry becomes the MRU (most recently used) entry.
     *
     * @param key the key whose associated value is to be returned.
     * @return the value associated to this key, or null if no value with this
     * key exists in the cache.
     */
    public synchronized V get(K key) {
        return map.get(key);
    }

    /**
     * Adds an entry to this cache. The new entry becomes the MRU (most recently
     * used) entry. If an entry with the specified key already exists in the
     * cache, it is replaced by the new entry. If the cache is full, the LRU
     * (least recently used) entry is removed from the cache.
     *
     * @param key   the key with which the specified value is to be associated.
     * @param value a value to be associated with the specified key.
     */
    public synchronized void put(K key, V value) {
        map.put(key, value);
    }

    /**
     * Clears the cache.
     */
    public synchronized void clear() {
        map.clear();
    }

    /**
     * Returns the number of used entries in the cache.
     *
     * @return the number of entries currently in the cache.
     */
    public synchronized int usedEntries() {
        return map.size();
    }

    /**
     * Returns a <code>Collection</code> that contains a copy of all cache
     * entries.
     *
     * @return a <code>Collection</code> with a copy of the cache content.
     */
    public synchronized Collection<Map.Entry<K, V>> getAll() {
        return new ArrayList<>(map.entrySet());
    }

    // Test routine for the LRUCache class.
    public static void main(String[] args) {
        LRUCache<String, String> cache = new LRUCache<>(3);
        cache.put("1", "one");          // 1
        cache.put("2", "two");          // 2 1
        cache.put("3", "three");        // 3 2 1
        cache.put("4", "four");         // 4 3 2
        if (cache.get("2") == null)
            throw new Error();          // 2 4 3
        cache.put("5", "five");         // 5 2 4
        cache.put("4", "second four");  // 4 5 2

        // Verify cache content.
        if (cache.usedEntries() != 3)
            throw new Error();
        if (!cache.get("4").equals("second four"))
            throw new Error();
        if (!cache.get("5").equals("five"))
            throw new Error();
        if (!cache.get("2").equals("two"))
            throw new Error();

        // List cache content.
        for (Map.Entry<String, String> entry : cache.getAll()) {
            System.out.println(entry.getKey() + " : " + entry.getValue());
        }

        cache.clear();
    }
}

 

Reference

https://en.wikipedia.org/wiki/Cache_replacement_policies#Least_Recently_Used_.28LRU.29

http://wiki.jikexueyuan.com/project/java-collection/linkedhashmap-lrucache.html

 

 

  • 大小: 156.3 KB
分享到:
评论

相关推荐

    最近最少使用cache,提取leveldb的lru cache部分,增加过期时间,过期失效

    它使用LRU Cache作为其内部的数据缓冲机制,以加速对数据的读取。在原始的LevelDB实现中,LRU Cache主要关注数据的访问频率,而不涉及数据的过期策略。 在这个项目中,开发者将LevelDB的LRU Cache部分提取出来,...

    算法面试通关40讲完整课件 57-58 LRU Cache

    LRU (Least Recently Used) Cache 是一种常用的缓存淘汰策略,广泛应用于计算机系统,包括操作系统、数据库和编程语言的设计中。在面试中,理解和熟练掌握LRU Cache的实现原理及其实现方式是至关重要的。 首先,LRU...

    erlang lru cache module

    Erlang LRU Cache 模块是一个用于实现Least Recently Used(最近最少使用)缓存策略的工具。LRU缓存是一种常见的数据结构,它在内存有限的情况下,通过淘汰最近最少使用的数据来保持缓存的容量。在Erlang中,这个...

    LRU Cache的简单C++实现

     LRU Cache是一个Cache的置换算法,含义是“近少使用”,把满足“近少使用”的数据从Cache中剔除出去,并且保证Cache中第一个数据是近刚刚访问的,因为这样的数据更有可能被接下来的程序所访问。  LRU的应用比较...

    Python中双向链表的实现及LRU Cache应用详解(包含详细的完整的程序和数据)

    内容概要:本篇文章详细介绍了双向链表的概念、结构及其实现方法,并附带了一个复杂的例子——最少最近使用缓存(LRU Cache)的具体实现实验案例,有助于理解该数据结构的运作方式及应用潜力。 适合人群:适用于对...

    Android性能优化一 : 1.The Magic of LRU Cache (100 Days of Google Dev)

    谷歌官方视频

    LRU-update-Cache-.zip_LRU cache

    LRU置换算法是选择最近最久未使用的页面予以置换。该算法赋予每个页面一个访问字段,用来记录一个页面自上次被访问以来经历的时间T,当须淘汰一个页面时,选择现有页面中T值最大的,即最近最久没有访问的页面。这是...

    Lru Cache java代码

    LruCache的java代码实现,是从android代码中抽取出来的

    lru-cache-2.5.0.zip

    LRU Cache(Least Recently Used 缓存)是一种常见的数据结构,用于存储有限数量的数据,并在内存容量达到上限时,优先淘汰最近最少使用的数据。在IT领域,LRU Cache被广泛应用于缓存系统,如数据库查询缓存、操作...

    LRU Cache-开源

    LRU Cache,全称为Least Recently Used Cache,是一种常见的缓存淘汰策略。在计算机科学和IT领域,缓存被广泛用于提高数据访问速度,通过将常用数据暂存到内存中,来减少对慢速存储(如硬盘)的访问。LRU Cache的...

    ARM高速缓存(Cache)Verilog代码 包含ISE工程

    Cache替换策略: LRU I_Cache的工作就是在cpu需要指令时将指令从主存中搬进I_Cache,再传给CPU,而D_Cache在解决数据读外,还要注意数据写入的问题。本工程可以与arm.v 中的arm 核协同工作,主存使用dram_ctrl_sim。

    lru-cache-js:使用双链表和映射实现 LRU Cache,读写时间复杂度为 O(1)

    LRU缓存使用的数据结构使用双向链表实现的队列。 队列的最大大小将等于...执行 npm i lru-cache-js-map const LRUCache = require('lru-cache-js-map');var cache = new LRUCache(100);for(var i=0; i &lt; 100; i++){

    bmob聊天组件优化

    "bmob聊天组件优化"就是这样一个专注于缓存优化的实践案例,它利用了LRU Cache和Disk LRU Cache来提高聊天功能的响应速度和效率。下面我们将深入探讨这两种缓存机制及其在聊天组件中的应用。 首先,LRU(Least ...

    LRU更新Cache

    LRU(Least Recently Used)缓存更新策略是一种广泛应用于计算机系统中的内存管理技术,尤其是在操作系统、数据库系统和编程语言的缓存实现中。LRU的基本思想是:当内存空间有限时,最近最少使用的数据应该优先被...

    PyPI 官网下载 | backports.functools_lru_cache-1.3.tar.gz

    《PyPI上的backports.functools_lru_cache-1.3.tar.gz:Python高效缓存技术解析》 在Python编程中,高效的代码执行是至关重要的,特别是在处理大量数据或者需要频繁重复计算的场景下。PyPI(Python Package Index)...

    SimpleLRUCache

    **简单最近最少使用缓存(SimpleLRUCache)** 在计算机科学中,缓存是一种用于存储经常访问数据的机制,以提高系统性能。最近最少使用(LRU, Least Recently Used)是缓存替换策略的一种,当缓存空间满时,会优先...

    node-lru:nodejs实现的lru缓存

    Node LRU Cache 基于Nodejs开发的LRU Cache, 兼有缓存超时清除功能 usage var options = { expires: 5 * 60 * 1000, capacity: 5 }; var LRU = require('node-lru'); var cache = new LRU(2);//var cache = new ...

    javalruleetcode-LRU_cache:LRU_cache

    LRU_cache (Leetcode 146) 设计和实现最近最少使用 (LRU) 缓存的数据结构。 它应该支持以下操作:get 和 set。 get(key) – 如果键存在于缓存中,则获取键的值(将始终为正),否则返回 -1。 set(key, value) – ...

    Python实现的一个简单LRU cache

    LRU (Least Recently Used) 缓存是一种常用的内存管理策略,用于在有限的存储空间内高效地存储数据。当缓存满时,最近最少使用的数据将被移除以腾出空间给新数据。这里我们将讨论如何使用Python实现一个简单的LRU...

    LRU算法.zip

    1. 数据结构:LRU Cache 的实现,可能使用了HashMap(用于快速查找)和Deque(如LinkedBlockingDeque或LinkedList,用于保持顺序)相结合的方式。 2. 插入操作:当有新数据插入时,首先检查LRU缓存是否已满。若已满...

Global site tag (gtag.js) - Google Analytics