LRU cache

Posted xiaxiaosheng

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了LRU cache相关的知识,希望对你有一定的参考价值。

  LRU是Least Recently Used的缩写,意思是最近最少使用,它是一种Cache替换算法。现在要设计一种数据结构有如下几种性质:

1. 每个节点为一对key,value的形式,可通过get <key>查找,通过put <key, value> 插入

2. 最大存储节点数为n

3. put操作时,如果已经存储了n个节点,则要淘汰最近最少使用的那个节点

 

可能会有很多种解决方案,例如:

一、用一个双向链表来存储所有节点,get时,遍历整个链表,找到对应的节点,并且把该节点挪动到链表的第一个位置,因此,链接中越靠前的位置总是距离最后一次访问时间越短的节点,越靠后的位置总是距离最后一次访问时间约久的节点。所以put时,如果已达到最大存储节点数时,直接删除链表最后一个节点再插入即可。总结,优点:实现简单,put操作的时间复杂度为O(1) 缺点:get操作时间复杂度为O(n),不够优秀。

二、我们都知道哈希表这种数据结构查询的时间性能很好,但是在这里如果只用一个哈希表,虽然查询和插入操作都能优化到O(1),但是在删除,也就是查找最近最少使用的节点时,却不得不遍历整个哈希表。我们来做进一步优化,前面第一种方案删除和插入操作都是O(1)的,但是查询操作是O(n),如果能把这两种方案结合一下的话,三种操作不就都是O(1)时间复杂度了。怎么结合呢?

    哈希表的value存储节点的指针,同时把所有的value连接成一个双向链表,查询操作时,通过哈希表直接找到这个节点的指针,同时,可以在O(1)时间将这个节点移动到链表头部,删除操作时,直接删除链表尾部那个节点,同时将这个节点从哈希表中删除。

C++实现(这里为了简化操作,直接用了STL的map代替哈希表)

技术图片
class LRUCache {
public:
    struct Node {
        int key, value;
        Node *next, *pre;
    };
    map<int, Node*> cache;
    Node *head, *rear;
    int size;
    
    LRUCache(int capacity) {
        size = capacity;
        head = new Node();
        rear = new Node();
        head->pre = NULL;
        head->next = rear;
        rear->next = NULL;
        rear->pre = head;
    }

    int get(int key) {
        if(cache.find(key) == cache.end()) return -1;
        Node *tmp = cache[key];
        tmp->pre->next = tmp->next;
        tmp->next->pre = tmp->pre;

        head->next->pre = tmp;
        tmp->next = head->next;
        tmp->pre = head;
        head->next = tmp;
        return tmp->value;
    }

    void lru_delete() {
        if(cache.size() == 0) return;
        Node* tmp = rear->pre;
        rear->pre = tmp->pre;
        tmp->pre->next = rear;
        cache.erase(tmp->key);
        delete tmp;
    }

    void put(int key, int value) {
        // if the key exist, then just update the value
        if(cache.find(key) != cache.end()) {
            cache[key]->value = value;
            this->get(key);
            return;
        }

        if(cache.size() >= this->size) this->lru_delete();

        Node *tmp = new Node;
        tmp->key = key;
        tmp->value = value;
        tmp->pre = this->head;
        tmp->next = this->head->next;
        if(head->next != NULL) head->next->pre = tmp;
        this->head->next = tmp;
        cache.insert(pair<int, Node*>(key, tmp));
    }
};
View Code

 

以上是关于LRU cache的主要内容,如果未能解决你的问题,请参考以下文章

使用缓存方式优化递归函数与lru_cache

从内部函数禁用`functools.lru_cache`

LRU Cache

如何用 `functools.lru_cache` 正确装饰`classmethod`?

leetcode@ [146] LRU Cache (TreeMap)

functools.lru_cache的实现