相信大家对于缓存这个词都不陌生,但凡追求高性能的业务场景,一般都会使用缓存,它可以提高数据的检索速度,减少数据库的压力。缓存大体分为两类:本地缓存和分布式缓存(如 Redis
)。本地缓存适用于单机环境下,而分布式缓存适用于分布式环境下。在实际的业务场景中,这两种缓存方式常常被结合使用,以利用各自的优势,实现高性能的数据读取。本文将会探讨如何极简设计并实现一个可扩展、高性能的本地缓存。
在设计一个本地缓存时,我们需要考虑以下几个关键方面:
goroutine
环境下是安全的。通常使用 sync.Mutex
或 sync.RWMutex
来避免竞态条件和数据不一致的问题。LRU
)、最不经常使用(LFU
)、先进先出(FIFO
)等。除了上面列出的三项,在必要的情况下,我们可能还需要考虑其他方面,例如监控和日志、容错和恢复等。
本文将会讲解图中所给出的四个部分的设计:
Cache[K comparable, V any]
:基于策略模式的灵活、可扩展和并发安全的缓存结构体设计。ICache[K comparable, V any]
:缓存 API 接口,用于定义缓存 API
规范。SimpleCache[K comparable, V any]
:基于简单 map
实现的缓存实例。LRUCache[K comparable, V any]
:基于 LRU
淘汰算法实现的缓存实例。首先,定义一个 ICache
接口:
go
复制代码
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go type ICache[K comparable, V any] interface { Set(ctx context.Context, key K, value V) error Get(ctx context.Context, key K) (V, error) Delete(ctx context.Context, key K) error Keys() []K }
该接口作为多种本地缓存实现的 API
标准,确保不同本地缓存的实现都有相同的基本操作。
go
复制代码
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go type Cache[K comparable, V any] struct { cache ICache[K, *Item[V]] mutex sync.RWMutex janitor *janitor }
上述代码定义的 CacheK[comparable, V any]
结构体是一个基于泛型的缓存适配器实现,它不直接实现本地缓存的逻辑。Cache
结构体有三个字段:
1、cache ICache[K, *Item[V]]
:
这是一个接口字段,用于抽象化底层的本地缓存操作。该接口定义了缓存的基本行为,如设置、获取和删除键值对。通过引入这个接口,Cache
结构体遵循了 依赖倒置原则 和 策略模式,使得可以根据具体需求灵活选择不同的缓存实现策略。
*Item[V]
是值的类型,这里使用了指针,指向一个 Item
结构,Item
结构体包含了实际的值和过期时间。
2、mutex sync.RWMutex
:
读写互斥锁,用于避免并发读写时数据不一致性的问题。
3、janitor *janitor
:
一个用于处理后台任务的结构体,例如定时清理过期数据,单独提出一个结构体是为了解耦。
go
复制代码
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go type ItemOption func(*itemOptions) type itemOptions struct { expiration time.Time } func WithExpiration(exp time.Duration) ItemOption { return func(o *itemOptions) { o.expiration = time.Now().Add(exp) } } type Item[V any] struct { value V expiration time.Time } func newItem[V any](value V, opts ...ItemOption) *Item[V] { var item = &itemOptions{} for _, opt := range opts { opt(item) } return &Item[V]{ value: value, expiration: item.expiration, } } func (i *Item[V]) Expired() bool { return !i.expiration.IsZero() && i.expiration.Before(time.Now()) }
Item
结构体作为本地缓存适配器 Cache
的 value
值的类型,它有两个字段和一个方法,分别是:
value
:用于本地缓存对应 key
的 value
值。expiration
:表示缓存值的过期时间。Expired
:判断元素是否过期的方法。为了方便创建并初始化 Item
元素,代码中实现了一个 newItem
函数,该函数除了接受 value
值以外,还接受一个或多个 ItemOption
类型的参数。这些参数是可选的,允许我们在创建 Item
实例时设置额外的属性。例如,可以通过 WithExpiration
函数选项来指定过期时间。
Item
这种设计方式使得元素支持 多种过期机制(固定时间过期和永久不过期的机制),同时提高了代码扩展性和灵活性。如果我们后续需要为 value
添加额外的属性,只需要往 Item
结构体新增字段即可,并且 newItem
方法,引入了函数选项模式,即使后面新增字段,这些字段可以作为可选参数初始化。例如支持 滑动过期时间。所有的新增操作都不会影响已有代码。
go
复制代码
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go // NewSimpleCache - 创建一个新的简单缓存。 // interval time.Duration - 清理过期缓存项的时间间隔。在这个间隔内,缓存将自动检查并清理过期项。 func NewSimpleCache[K comparable, V any](ctx context.Context, size int, interval time.Duration) *Cache[K, V] { cache := &Cache[K, V]{ cache: simple.NewCache[K, *Item[V]](size), janitor: newJanitor(ctx, interval), } cache.janitor.run(cache.DeleteExpired) return cache } // NewLruCache - 创建一个新的LRU缓存。 // interval time.Duration - 清理过期缓存项的时间间隔。在这个间隔内,缓存将自动检查并清理过期项。 func NewLruCache[K comparable, V any](ctx context.Context, cap int, interval time.Duration) *Cache[K, V] { cache := &Cache[K, V]{ cache: lru.NewCache[K, *Item[V]](cap), janitor: newJanitor(ctx, interval), } cache.janitor.run(cache.DeleteExpired) return cache }
上述代码段包含了两个构造函数,分别用于创建两种不同类型的本地缓存。以下是对这两个函数的详细说明:
1、NewSimpleCache
函数
这个函数用于创建一个简单缓存的实例。它接受以下参数:
ctx context.Context
:上下文,用于管理缓存的生命周期和相关操作。size int
:缓存的大小,可能表示缓存可以存储的最大项数。interval time.Duration
:用于清理过期缓存项的时间间隔。在这个时间间隔内,缓存将自动检查并清理过期的项。函数的实现逻辑如下:
Cache[K, V]
类型的实例。simple.NewCache[K, *Item[V]](size)
创建一个简单缓存的底层实现,并将其赋值给 Cache
实例的 cache
字段。newJanitor(ctx, interval)
创建一个清理过期项的 janitor
,并将其赋值给 Cache
实例的 janitor
字段。cache.janitor.run(cache.DeleteExpired)
启动 janitor
,以定期运行 DeleteExpired
方法清理过期项。Cache
实例。2、 NewLruCache
函数
这个函数用于创建一个基于最近最少使用(LRU
)策略的缓存实例。它的参数与 NewSimpleCache
相同:
ctx context.Context
:上下文,用于管理缓存的生命周期和相关操作。cap int
:缓存的容量,指示缓存可以存储的最大项数。interval time.Duration
:用于清理过期缓存项的时间间隔。函数的实现逻辑类似于 NewSimpleCache
,但它使用 lru.NewCache[K, *Item[V]](cap)
来创建一个基于 LRU
策略的底层缓存实现。
这两个函数提供了不同策略的本地缓存实现,分别适用于不同的应用场景。简单缓存可能适用于基本的缓存需求,而基于 LRU
的缓存更适合于需要淘汰老旧数据以节省空间的场景。通过这样的设计,使用者可以根据具体需求选择最适合的缓存策略。
下一个大章节的内容将详细介绍 simple
和 lru
这两种本地缓存的实现细节。
go
复制代码
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go type janitor struct { ctx context.Context interval time.Duration done chan struct{} once sync.Once } func (j *janitor) stop() { j.once.Do(func() { close(j.done) }) } func (j *janitor) run(cleanup func(ctx context.Context)) { go func() { ticker := time.NewTicker(j.interval) defer ticker.Stop() for { select { case <-ticker.C: cleanup(j.ctx) case <-j.ctx.Done(): j.stop() case <-j.done: cleanup(j.ctx) return } } }() }
janitor
可以认为是一个处理后台任务的结构体,其作用是定时清理 本地缓存 的过期数据。
下面是对 janitor
结构体的字段和方法的具体解释:
ctx
:context
上下文,作用是控制 run
方法中的协程何时停止执行,也就是控制后台任务的停止执行。interval
:时间间隔,指定清理操作的执行频率。done
:一个通道(channel
),用于发出停止信号。当通道被关闭时,意味着 run
方法中的写成停止执行,结束后台任务。once
:一个 sync.Once
的实例,确保关闭 done
通道只执行一次。stop
方法:用于停止 janitor
的运行,它利用 sync.Once
来确保关闭 done
通道的操作只执行一次,避免多次关闭通道导致的 panic
。关闭 done
通道将导致 run
方法中的协程停止执行。run
方法:该方法接受一个 clean 清理函数,里面包含用户自定义的清理逻辑。run
方法启动一个协程。在协程里,首先创建了一个定时器,用于控制任务的执行间隔时间;接着启动一个 for
循环,它使用 select
语句来监听多个通道:
ticker.C
通道接收到信号时(即每隔 j.interval
时间),调用 cleanup
函数执行清理操作。j.ctx.Done()
通道接收到信号时(即上下文被取消或超时),调用 j.stop()
方法来停止 janitor
。j.done
通道被关闭时(通过调用 stop
方法),执行最后一次清理操作然后退出协程。go
复制代码
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go func (c *Cache[K, V]) Get(ctx context.Context, key K) (v V, err error) { c.mutex.RLock() defer c.mutex.RUnlock() item, err := c.cache.Get(ctx, key) if err != nil { return } if item.Expired() { return v, cacheError.ErrNoKey } return item.value, nil }
该方法的作用是通过指定的 key
获取对应的 value
,核心逻辑:
Expired
方法判断元素是否过期,成立则返回一个明确的错误 error
。value
值。go
复制代码
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go func (c *Cache[K, V]) Set(ctx context.Context, key K, value V, opts ...ItemOption) (err error) { c.mutex.Lock() defer c.mutex.Unlock() item := newItem[V](value, opts...) return c.cache.Set(ctx, key, item) }
该方法用于将键值对 key-value
保存到本地缓存中。Set
方法除了接收 key
和 value
作为必要参数,还接受一个或多个 ItemOption
类型的参数作为可选配置。
核心逻辑:
Set
方法首先加上写锁。这样做可以防止在写操作进行时发生读操作,避免可能导致的数据不一致问题。newItem[V]
函数创建一个 Item
实例,其中 value
是必传参数。此外,根据不同的使用场景,可以通过传递 ItemOption
类型的参数来初始化 Item
的可选配置,如设置过期时间等。c.cache.Set
调用底层的实现的方法将键值对保存到本地缓存中。nil
或可能的错误(如果写入过程中发生错误)。go
复制代码
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go func (c *Cache[K, V]) SetNX(ctx context.Context, key K, value V, opts ...ItemOption) (b bool, err error) { c.mutex.Lock() defer c.mutex.Unlock() _, err = c.cache.Get(ctx, key) if err != nil { if errors.Is(err, cacheError.ErrNoKey) { item := newItem[V](value, opts...) return true, c.cache.Set(ctx, key, item) } return false, err } return false, nil }
该方法和 Set
方法功能相似,但它与 Set
方法的主要区别在于它不会覆盖已存在的键值对。
核心逻辑:
SetNX
方法首先加上写锁。这样做可以防止在写操作进行时发生读操作,避免可能导致的数据不一致问题。key
。如果键不存在(识别为 cacheError.ErrNoKey
错误),则继续执行;如果获取过程中发生其他错误,方法将返回错误。SetNX
会利用 newItem[V]
函数创建一个新的 Item
实例,并将其与 key
一起保存到缓存中。在这个过程中,它也接受可选的 ItemOption
参数,允许对缓存项进行进一步的配置,例如设置过期时间。false
和 nil
错误,表示没有新的键值对被添加。如果键不存在且成功设置了新的键值对,方法返回 true
和可能发生的错误 error
(如果写入过程中发生错误)。go
复制代码
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go func (c *Cache[K, V]) Delete(ctx context.Context, key K) (err error) { c.mutex.Lock() defer c.mutex.Unlock() return c.cache.Delete(ctx, key) }
该方法用于从本地缓存中删除指定的键值对。
核心逻辑:
Delete
方法获取一个写锁。这是为了保证在删除操作进行时,缓存的状态不会被其他的读或写操作所干扰,从而确保操作的协程安全性。c.cache.Delete(ctx, key)
来执行实际的删除操作。这一步骤涉及到对底层缓存数据结构的操作,以确保指定的键 key
被移除。nil
或可能发送的错误 error
。go
复制代码
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go func (c *Cache[K, V]) Keys() []K { return c.cache.Keys() }
该方法用于获取本地缓存中所有的键,并以切片的形式返回这些键。返回的键的顺序取决于底层本地缓存实现的具体细节。
go
复制代码
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go func (c *Cache[K, V]) DeleteExpired(ctx context.Context) { c.mutex.RLock() keys := c.Keys() c.mutex.RUnlock() i := 0 for _, key := range keys { if i > 10000 { return } c.mutex.Lock() if item, err := c.cache.Get(ctx, key); err == nil && item.Expired() { _ = c.cache.Delete(ctx, key) } c.mutex.Unlock() i++ } }
该方法用于删除本地缓存中已过期的项。核心逻辑:
c.mutex.RLock()
),以安全地访问共享资源。c.Keys()
方法来获取缓存中所有的键,并将这些键存储在 keys
切片中。c.mutex.RUnlock()
)。keys
切片中的每个键。在遍历过程中,它实现了以下步骤:
i
,如果检查的项数超过 10000,方法将提前结束。c.mutex.Lock()
)以安全地执行写操作。item.Expired()
返回 true
),则调用 c.cache.Delete(ctx, key)
来删除该键值对。c.mutex.Unlock()
)。i
递增。这用于控制方法检查的最大项数,避免可能的性能问题。这里做了一个优化:引入了一个计数器,当 i
超过 10000 时,则停止操作。这样做的好处:
计数器 i
的最大值应根据具体场景进行调整,因为不同的应用环境和性能要求会影响到合适的最大值选择。
go
复制代码
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/simple/simple_cache.go type Cache[K comparable, V any] struct { cache map[K]V } func NewCache[K comparable, V any](size int) *Cache[K, V] { return &Cache[K, V]{ cache: make(map[K]V, size), } } func (c *Cache[K, V]) Set(_ context.Context, key K, value V) error { c.cache[key] = value return nil } func (c *Cache[K, V]) Get(_ context.Context, key K) (V, error) { var ( value V ok bool ) if value, ok = c.cache[key]; !ok { return value, cacheError.ErrNoKey } return value, nil } func (c *Cache[K, V]) Delete(_ context.Context, key K) error { if _, ok := c.cache[key]; ok { delete(c.cache, key) return nil } return cacheError.ErrNoKey } func (c *Cache[K, V]) Keys() []K { keys := make([]K, 0) for key := range c.cache { keys = append(keys, key) } return keys }
simple cache
实现了 ICache
接口,它的设计较为简单,以 map
作为其核心数据结构,使得键值对的存储和检索操作简单高效。这种缓存实现适用于不需要复杂缓存策略的基本用例。
需要注意的是,在 Get
和 Delete
方法中,如果键不存在,则会返回一个明确的错误 cacheError.ErrNoKey
,这有助于调用者区分 "缓存未命中" 与其他类型的错误。
go
复制代码
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/lru/lru_cache.go type entry[K comparable, V any] struct { key K value V } func NewCache[K comparable, V any](cap int) *Cache[K, V] { return &Cache[K, V]{ maxEntries: cap, cache: make(map[K]*list.Element, cap), linkedDoublyList: list.New(), } } type Cache[K comparable, V any] struct { maxEntries int cache map[K]*list.Element linkedDoublyList *list.List } func (c *Cache[K, V]) Set(_ context.Context, key K, value V) error { if e, ok := c.cache[key]; ok { // 元素存在 c.linkedDoublyList.MoveToFront(e) e.Value.(*entry[K, V]).value = value return nil } // 元素不存在 e := &entry[K, V]{ key: key, value: value, } c.cache[key] = c.linkedDoublyList.PushFront(e) if c.linkedDoublyList.Len() > c.maxEntries { // 删除最后一个元素 e := c.linkedDoublyList.Back() c.linkedDoublyList.Remove(e) delete(c.cache, e.Value.(*entry[K, V]).key) } return nil } func (c *Cache[K, V]) Get(_ context.Context, key K) (v V, err error) { if e, ok := c.cache[key]; ok { c.linkedDoublyList.MoveToFront(e) e := e.Value.(*entry[K, V]) return e.value, nil } return v, cacheError.ErrNoKey } func (c *Cache[K, V]) Delete(_ context.Context, key K) error { if e, ok := c.cache[key]; ok { c.linkedDoublyList.Remove(e) delete(c.cache, key) return nil } return cacheError.ErrNoKey } func (c *Cache[K, V]) Keys() []K { keys := make([]K, 0) // 根据添加顺序返回 for e := c.linkedDoublyList.Back(); e != nil; e = e.Prev() { keys = append(keys, e.Value.(*entry[K, V]).key) } return keys }
lru cache
实现了 ICache
接口。这里借助了哈希表(map
)和双向链表(这里使用 container
包里的一个具体实现 List
)来实现 最近最少使用 lru
本地缓存。
entry[K comparable, V any]
:这是一个私有的结构体,用于存储缓存中的键(key
)和值(value
)。Cache[K comparable, V any]
:这是公开的缓存结构体,包含以下字段:
maxEntries
:缓存能够存储的最大条目数。cache
:一个映射,将键映射到双向链表中的元素(list.Element
)。linkedDoublyList
:一个 list.List
类型的双向链表,用于维护键的使用顺序。NewCache[K comparable, V any](cap int)
:创建并返回一个新的 Cache[K, V]
实例。接受缓存容量 cap
作为参数,并初始化内部结构。Set(_ context.Context, key K, value V)
:向缓存中添加一个键值对。基于 最近最少使用 的原则,如果键已经存在,则更新其值并将其移至链表的前端。如果键不存在,则创建一个新的 entry
项并将其加入链表的前端。如果加入新项后缓存超过最大容量,则从链表尾部移除最少使用的项。Get(_ context.Context, key K)
:根据键从缓存中检索值。如果找到了键,则将对应的链表元素移至前端并返回其值。如果键不存在,则返回 cacheError.ErrNoKey
错误。Delete(_ context.Context, key K)
:从缓存中删除指定的键及其对应的值。如果键存在,则从链表和 map
中移除相应的元素。Keys()
:返回一个包含缓存中所有键的切片,按照从最近到最少使用的顺序排列。本文详细介绍了如何设计和实现一个极简的可扩展、高性能的泛型本地缓存。
核心在于引入了 Cache
适配器,它的关键字段 cache
是一个类型为 ICache
的接口。这个设计使得我们能够灵活地提供多种不同底层实现的本地缓存实例,例如 simple cache
和 lru cache
。这样,Cache
适配器不仅支持多样化的缓存策略,还保留了通用的缓存操作接口,如 Get
、Set
、SetNX
和 Delete
。
在具体实现方面, simple cache
较为简单,基于 map
的读写操作实现,而 lru cache
则更为复杂,它结合哈希表(map
)和双向链表(使用 container
包里的 List
,也可以自己实现一个双向链表)来实现 最近最少使用 lru
本地缓存。