王二北原创,转载请标明出处:来自[王二北]
1、简单介绍guava cache
guava cache是Google guava中提供的一款轻量级缓存组件,最近项目中用到了guava cache做本地缓存,之所以选择guava cache,原因是guava cache够轻量、够简单、key过期和内存管理机制也较为完善,可扩展性强。
并且相比于redis等分布式缓存,guava cahce有以下优点:
1、减少了网络调用的开销
2、减少了分布式缓存中客户端和服务端的序列化和反序列化。
下面是guava cache的一个简单例子:
LoadingCache cache = CacheBuilder.newBuilder()
// 当cache中元素个数超过100时,则使用LRU进行内存回收
.maximumSize(100)
// 设置cache基于比重大小来清理,这个和maximumSize不可同时使用!!!
// .maximumWeight(1000)
// 如果使用基于比重的清理策略,最好自己实现weigher,来指定某些k/v占的比重
// .weigher(new Weigher() {
// @Override
// public int weigh(String key, String value) {
// return 1;
// }
// })
// 缓存项在给定时间内没有被进行写操作,则回收这个数据项占用内存
.expireAfterWrite(5, TimeUnit.SECONDS)
// 缓存项在给定时间内没有被访问(读/写操作),则回收这个数据项占用内存
.expireAfterAccess(10,TimeUnit.SECONDS) 缓存项在给的时间内没有进行写操作(创建/更新值),则刷新缓存, 调用reload()去重新加载数据
.refreshAfterWrite(15, TimeUnit.SECONDS)
// 删除监听器,当缓存被删除时,会触发onRemoval()方法
// RemovalNotification是删除通知,其中包含移除原因[RemovalCause]、键和值。
.removalListener(new RemovalListener() {
@Override
public void onRemoval(RemovalNotification notification) {
System.out.println("onRemoval execute: key="+notification.getKey()+",value="+notification.getValue()+" was deleted,cause="+notification.getCause().name());
}
})
/**
* recordStats用来开启Guava Cache的统计功能,用于统计缓存命中率、命中次数等值。
* 统计打开后,使用Cache.stats()方法会返回CacheStats对象以提供如下统计信息:
* hitRate():缓存命中率;
* averageLoadPenalty():加载新值的平均时间,单位为纳秒;
* evictionCount():缓存项被回收的总数,不包括显式清除。
*/
.recordStats()
.build(
// CacheLoader用于处理load, reload等逻辑
new CacheLoader() {
public String load(String key) {
System.out.println("load .......");
return key + new Date().toString();
}
//重载CacheLoader.reload(K, V)可以扩展刷新时(调用Cache#refresh()方法时)的行为,
// 这个方法允许在获取新值时返回旧的值。
@Override
public ListenableFuture reload(String key, String oldValue) throws Exception {
System.out.println("reload cache: key="+key+",oldValue="+oldValue);
return super.reload(key, oldValue);
}
});
2、对guava cache的疑惑
虽然guava cache很“小”,很轻量,但是在使用的过程中,我一直对其中的一些机制感到疑惑:
(1)guava cache有几个重要的参数:expireAfterAccess、expireAfterWrite、refreshAfterWrite,第一个和第二个参数从字面上理解,分别表示一个key对应的value,多久没有访问就会过期和多久没有进行写操作就会过期,第三个参数表示写操作多久后进行刷新。 那么这三个参数是如何管理cache中数据的有效性的呢,实际应用中我该如何设置呢?
(2)guava cache官方文档介绍说,guava cache本身并不会开启一个线程去维护缓存, 而是在访问key时顺便检查一下key的有效期,然后该过期的过期,该刷新缓存的刷缓存,那么在多线程访问的情况下,需要注意哪些问题呢?如果要实现主动过期,该如何实现呢?
要回答第一个问题,最好从本质上,也就是从源码层面来解答这些问题。
注:如果你感觉源码比较枯燥,可以直接跳过2.1小节,从2.2小节看起。
2.1、从源码中探究问题的答案
首先看LoadindgCache,它是一个接口(又继承了Cache接口),接口中定义了get/getUnchecked/refresh等跟缓存存取相关的方法。
@GwtCompatible
public interface LoadingCache extends Cache, Function{
//xxxx
}
LoadingCache实现类的结构如下:
[图片上传失败...(image-3237d0-1571749293092)]
那么我们会用到哪个类呢?回头查看上面的例子,在调用构建器CacheBuilder#build方法时,返回LoadingCache对象,查看一下build方法源码:
public LoadingCache build(
CacheLoader super K1, V1> loader) {
checkWeightWithWeigher();
return new LocalCache.LocalLoadingCache<>(this, loader);
}
可以看到,cache使用的是LocalLoadingCache这个实现类。
我们平常用的最多的,也就是cache.get()方法,那么就从LocalLoadingCache入手,查看一下其对应的get(xxx)方法:
// 其get方法调用的是LocalCache的getOrLoad方法
@Override
public V get(K key) throws ExecutionException {
return localCache.getOrLoad(key);
}
// LocalCache中getOrLoad内调用了get
V getOrLoad(K key) throws ExecutionException {
return get(key, defaultLoader);
}
// get方法内部的实现,看着是不是有点熟悉,有点像concurrentHashMap
V get(K key, CacheLoader super K, V> loader) throws ExecutionException {
// 注意,key不可为空
int hash = hash(checkNotNull(key));
return segmentFor(hash).get(key, hash, loader);
}
当看到上面的LocalCache中的V get(K key, CacheLoader super K, V> loader)方法时,突然感觉有点眼熟,这个又是hash,又是segment的,怎么感觉和ConcurrentHashMap很像,接着往下看,首先取hash值的方法实现和hashMap等中取hash的方式大同小异,这里不是重点,接着看segmentFor(hash)
// 通过hash得到Segment数组下标,通过下标得到segment数组的元素
final Segment[] segments;
Segment segmentFor(int hash) {
// TODO(fry): Lazily create segments?
return segments[(hash >>> segmentShift) & segmentMask];
}
Segment是LocalCache的内部类,在创建Sement时,会初始化一个AtomicReferenceArray实现的可并发读写的数组,数组元素是ReferenceEntry:
[图片上传失败...(image-7bc62a-1571749293092)]
// 初始化线程安全的数组,数组元素是ReferenceEntry(也就是链表中的头结点)
void initTable(AtomicReferenceArray> newTable) {
this.threshold = newTable.length() * 3 / 4; // 0.75
if (!map.customWeigher() && this.threshold == maxSegmentWeight) {
// prevent spurious expansion before eviction
this.threshold++;
}
this.table = newTable;
}
AtomicReferenceArray> newEntryArray(int size) {
return new AtomicReferenceArray<>(size);
}
ReferenceEntry是一个接口,有基于强引用和弱引用的实现,这里不再展开讲,后面再写一篇去讲,下面是ReferenceEntry的定义的方法,可以看出其也是链表的形式:
[图片上传失败...(image-a5b567-1571749293092)]
由此可见LoadingCache的内部数据结构和ConcurrentHashMap是类似的。
[图片上传失败...(image-893cc4-1571749293092)]
接着分析get方法,前面讲到get的内部实现是:
// get方法内部的实现
V get(K key, CacheLoader super K, V> loader) throws ExecutionException {
// 注意,key不可为空
int hash = hash(checkNotNull(key));
// 通过hash定位到segment数组的某个Segment元素,然后调用其get方法
return segmentFor(hash).get(key, hash, loader);
}
// LocalCache内部类Segment的get方法实现
V get(K key, int hash, CacheLoader super K, V> loader) throws ExecutionException {
checkNotNull(key);
checkNotNull(loader);
try {
if (count != 0) { // read-volatile
// 内部也是通过找Entry链数组定位到某个Entry节点
ReferenceEntry e = getEntry(key, hash);
if (e != null) {
long now = map.ticker.read();
// 根据key获取值,这个方法中也会对值进行一些失效数据的清理
// 另外需要注意的是,这个方法中不会去load数据。
// 如果过期的值在这一步被清理了,则下面回去load
V value = getLiveValue(e, now);
if (value != null) {
// 更新key的AccessTime
recordRead(e, now);
// 记录key命中
statsCounter.recordHits(1);
// 这个方法中会判断当前key是否到了需要刷新(reload)的时间,并进行刷新
// 具体参考后面的scheduleRefresh()源码
return scheduleRefresh(e, key, hash, value, now, loader);
}
// 当值不存在时(有可能是前面过期时清理了),并且有其他线程正在加载这个数据时,则去同步等待load数据
ValueReference valueReference = e.getValueReference();
if (valueReference.isLoading()) {
return waitForLoadingValue(e, key, valueReference);
}
}
}
// 如果前面值不存在,或者值已过期被清理(且前面isLoading没有成立),则会执行到这一步
return lockedGetOrLoad(key, hash, loader);
} catch (ExecutionException ee) {
Throwable cause = ee.getCause();
if (cause instanceof Error) {
throw new ExecutionError((Error) cause);
} else if (cause instanceof RuntimeException) {
throw new UncheckedExecutionException(cause);
}
throw ee;
} finally {
postReadCleanup();
}
}
这里主要关注上面代码中getLiveValue()、scheduleRefresh()、lockedGetOrLoad()和 lockedGetOrLoad()方法:
先看getLiveValue()方法的源码:
/**
* 这个方法会触发一些失效数据的清理,但不会去load数据
* (1)清理《整个segment中》所有非强引用类型中,被gc回收的key或value对应的entry
* (2)清理《整个segment中》所有过期失效的数据。
*/
V getLiveValue(ReferenceEntry entry, long now) {
// 下面两步是对那些不是强引用类型的key或value被垃圾回收后,去清理链中对应的entry。这两步体现了guava cache并不会主动去清理失效的数据,而是在访问数据时才被动去清理。
//( 关于key或value的源码在下面,这里不做深入探讨,如果需要可以自行查看。)
//比如key是一个弱引用,gc后,key对象被回收了,这个key对于的entry就会被放到一个keyReferenceQueue中,每次get操作时,如果当前key是null,则就触发一次遍历这个keyReferenceQueue,去清理entry链中对于的entry节点。
if (entry.getKey() == null) {
tryDrainReferenceQueues();
return null;
}
// value也一样,也是遍历对应的queue
V value = entry.getValueReference().get();
if (value == null) {
tryDrainReferenceQueues();
return null;
}
// 首先调用map.isExpired判断当前entry是否过期,如果已经过期,则触发过期清理,具体的源码在下面
if (map.isExpired(entry, now)) {
tryExpireEntries(now);
return null;
}
return value;
}
// 下面是对应key/value 不是强引用类型时的处理 逻辑
/**
* The key reference queue contains entries whose keys have been garbage collected, and which
* need to be cleaned up internally.
*/
final @Nullable ReferenceQueue keyReferenceQueue;
/**
* The value reference queue contains value references whose values have been garbage collected,
* and which need to be cleaned up internally.
*/
final @Nullable ReferenceQueue valueReferenceQueue;
/** Cleanup collected entries when the lock is available. */
void tryDrainReferenceQueues() {
if (tryLock()) {
try {
drainReferenceQueues();
} finally {
unlock();
}
}
}
// 判断key或value是否是非强引用类型
void drainReferenceQueues() {
if (map.usesKeyReferences()) {
drainKeyReferenceQueue();
}
if (map.usesValueReferences()) {
drainValueReferenceQueue();
}
}
boolean usesKeyReferences() {
return keyStrength != Strength.STRONG;
}
boolean usesValueReferences() {
return valueStrength != Strength.STRONG;
}
下面是guava cache中关于过期数据的处理过程:
// 下面是guava cache中判断一个entry是否过期的处理
boolean isExpired(ReferenceEntry entry, long now) {
checkNotNull(entry);
// 首先判断accessTime是否设置,如果设置则判断当前是否已达到accessTiMe过期条件
if (expiresAfterAccess() && (now - entry.getAccessTime() >= expireAfterAccessNanos)) {
return true;
}
// 然后判断afterWrite是否已设置,如果设置则判断当前是否已达到writeTime过期条件
if (expiresAfterWrite() && (now - entry.getWriteTime() >= expireAfterWriteNanos)) {
return true;
}
return false;
}
// 尝试清理过期的数据,这一步会加锁
void tryExpireEntries(long now) {
if (tryLock()) {
try {
expireEntries(now);
} finally {
unlock();
// don't call postWriteCleanup as we're in a read
}
}
}
// 注意每次触发清理时,会清理<整个segment中>所有已经过期的数据,注意是segment中所有的,不是只当前key。
void expireEntries(long now) {
drainRecencyQueue();
// 清理时,会遍历两个queue,去判断过期的entry,然后清理掉(这样的好处比遍历整个map去判断过期再清理效率要高很多,也算是空间换时间的一种手段)。
// 这两个queue,一个是writequeue,它记录了最近被write过的entry(是按write时间排序的)
// 另一个是accessQueue,它记录了最近被访问过的entry(是按访问时间排序)
ReferenceEntry e;
while ((e = writeQueue.peek()) != null && map.isExpired(e, now)) {
if (!removeEntry(e, e.getHash(), RemovalCause.EXPIRED)) {
throw new AssertionError();
}
}
while ((e = accessQueue.peek()) != null && map.isExpired(e, now)) {
if (!removeEntry(e, e.getHash(), RemovalCause.EXPIRED)) {
throw new AssertionError();
}
}
}
下面是判断是否需要刷新的逻辑
/*
* 如果当前key,已经到了需要刷新的时间,则调用reload进行刷新。
* 并且,同一时刻,只会有一个线程去刷新。其他线程判断到当前key正在被别的线程刷新,则会返回旧的值。
**/
V scheduleRefresh(
ReferenceEntry entry,
K key,
int hash,
V oldValue,
long now,
CacheLoader super K, V> loader) {
// 如果设置了refreshAfterWrite,并且刷新时间点已到,则进行刷新操作,也就是reload
// 并且,如果有其他线程正在进行load操作(isloading为true),则直接返回旧的值。
// 这里提前剧透一下,同一时刻只会有一个线程去reload数据,其他线程直接返回旧的值。这一点需要和后面要讲的load区分,load是线程阻塞的
// 那么这个isloading是怎么为true的呢,接着看下面的refresh
if (map.refreshes()
&& (now - entry.getWriteTime() > map.refreshNanos)
&& !entry.getValueReference().isLoading()) {
// refresh方法,刷新开始
V newValue = refresh(key, hash, loader, true);
if (newValue != null) {
return newValue;
}
}
// 如果已经有其他线程在加载当前key对应的新数据,当前线程直接返回旧的数据
return oldValue;
}
// 下面是实现key对应数据刷新的方法实现
V refresh(K key, int hash, CacheLoader super K, V> loader, boolean checkTime) {
// 这一步insertLoadingValueReference()方法就是isloading的关键,具体实现参考下方
final LoadingValueReference loadingValueReference =
insertLoadingValueReference(key, hash, checkTime);
if (loadingValueReference == null) {
return null;
}
// 异步的去加载数据(guava内部是使用当前线程同步调用,如果要实现真正的异步,需要重写reload方法!!!!)
ListenableFuture result = loadAsync(key, hash, loadingValueReference, loader);
// 如果不能立即返回(异步任务还没有执行完),则会返回null,外层判断异步得到的值为null,则会返回旧的值
if (result.isDone()) {
try {
return Uninterruptibles.getUninterruptibly(result);
} catch (Throwable t) {
// don't let refresh exceptions propagate; error was already logged
}
}
return null;
}
// 下面方法主要实现了两个功能
// 1、保证同一时刻只能有一个线程对同一个key进行刷新
// 2、标记当前key正在loading
LoadingValueReference insertLoadingValueReference(
final K key, final int hash, boolean checkTime) {
ReferenceEntry e = null;
// 首先加锁, 注意,此处不是tryLock,而是lock,并且锁是同一把锁,也就说,获得不到锁时,则会阻塞。如果有其他线程,在reload别的key,也会被阻塞。
(该锁并不是以key为单位的,而是以segment为单位的,因此如果当前segment中有其他线程在刷新其他key,会导致当前线程阻塞)
lock();
try {
long now = map.ticker.read();
// 这一步也会执行无效数据的清理
preWriteCleanup(now);
AtomicReferenceArray> table = this.table;
int index = hash & (table.length() - 1);
ReferenceEntry first = table.get(index);
// 首先通过key找到对应的entry
for (e = first; e != null; e = e.getNext()) {
K entryKey = e.getKey();
if (e.getHash() == hash
&& entryKey != null
&& map.keyEquivalence.equivalent(key, entryKey)) {
// entry存在,则判断当前entry是否正在被其他线程执行加载数据
或者当前entry并未过期,则直接返回null
ValueReference valueReference = e.getValueReference();
if (valueReference.isLoading()
|| (checkTime && (now - e.getWriteTime() < map.refreshNanos))) {
return null;
}
// 如果没有其他线程正在操作,则创建一个新的LoadingValueReference给这个entry,新LoadingValueReference中的isLoading()方法就只有一行代码,return true.(看下方的源码截图)
++modCount;
LoadingValueReference loadingValueReference =
new LoadingValueReference<>(valueReference);
e.setValueReference(loadingValueReference);
return loadingValueReference;
}
}
// 有可能在进行refresh操作之前,key对应entry已经被清理掉,因此这里会重新创建一个entry,后续会接着加载数据。
++modCount;
LoadingValueReference loadingValueReference = new LoadingValueReference<>();
e = newEntry(key, hash, first);
e.setValueReference(loadingValueReference);
table.set(index, e);
return loadingValueReference;
} finally {
unlock();
postWriteCleanup();
}
}
// 下面代码的意思是异步(需重写reload实现真正的异步)的去加载数据,返回一个future,表示异步处理
ListenableFuture loadAsync(
final K key,
final int hash,
final LoadingValueReference loadingValueReference,
CacheLoader super K, V> loader) {
final ListenableFuture loadingFuture = loadingValueReference.loadFuture(key, loader);
loadingFuture.addListener(
new Runnable() {
@Override
public void run() {
try {
getAndRecordStats(key, hash, loadingValueReference, loadingFuture);
} catch (Throwable t) {
logger.log(Level.WARNING, "Exception thrown during refresh", t);
loadingValueReference.setException(t);
}
}
},
directExecutor());
return loadingFuture;
}
// 异步加载的处理过程(默认仍是同步,需重写reload重写实现异步)
public ListenableFuture loadFuture(K key, CacheLoader super K, V> loader) {
try {
stopwatch.start();
V previousValue = oldValue.get();
// 如果旧数据为空,则调用load()方法加载数据
if (previousValue == null) {
V newValue = loader.load(key);
return set(newValue) ? futureValue : Futures.immediateFuture(newValue);
}
// 否则,调用reload()加载数据,reload内部默认同步调用load()
ListenableFuture newValue = loader.reload(key, previousValue);
if (newValue == null) {
return Futures.immediateFuture(null);
}
// To avoid a race, make sure the refreshed value is set into loadingValueReference
// *before* returning newValue from the cache query.
return transform(
newValue,
new com.google.common.base.Function() {
@Override
public V apply(V newValue) {
LoadingValueReference.this.set(newValue);
return newValue;
}
},
directExecutor());
} catch (Throwable t) {
ListenableFuture result = setException(t) ? futureValue : fullyFailedFuture(t);
if (t instanceof InterruptedException) {
Thread.currentThread().interrupt();
}
return result;
}
}
// reload的默认实现就是同步调用load(),因此guava cache官方推荐重新override 这个方法,自己实现多线程异步处理(比如从线程池中取出一个线程去处理)
// It is recommended that it be overridden with an asynchronous implementation when using CacheBuilder#refreshAfterWrite
public ListenableFuture reload(K key, V oldValue) throws Exception {
checkNotNull(key);
checkNotNull(oldValue);
return Futures.immediateFuture(load(key));
}
[图片上传失败...(image-cd7f6-1571749293092)]
最后看一下lockedGetOrLoad实现
// 这是最后一步,如果前面判断到值不存在,或者值已过期被清理,则会执行这一步
// 这一步总的来说会执行下面操作
// 1、再次执行清理操作,清理过期失效、非强引用被gc回收等数据
// 2、通过key再找一次对应的value,如果value此时已经存在,并且没有过期,则直接返回,如果value不存在或者已经过期,则将entry销毁原因加入到统计队列 中。这样做的目的其实就是一个双重校验,防止其他线程并发存入了数据
// 3、如果经过2找不到value,则同步调用load操作去加载数据(loadSync)
// 4、如果经过2判断到value正在被其他线程loading,则当前线程同步等待loading结束,返回结果
V lockedGetOrLoad(K key, int hash, CacheLoader super K, V> loader) throws ExecutionException {
ReferenceEntry e;
ValueReference valueReference = null;
LoadingValueReference loadingValueReference = null;
boolean createNewEntry = true;
// 第一步加锁,这个锁也是segment级别的,如果同一个key或同一个segment中对应并发较大,则此处竞争就会比较大
lock();
try {
// re-read ticker once inside the lock
long now = map.ticker.read();
// 再尝试清理下面三类数据:
// 1、过期失效的数据 2、非强引用gc被回收的entry
// 3、也会去清理recencyQueue中的数据,每access一次某个值,这个值就会被放入recencyQueue队列,这个队列的作用是用来帮助更新accessQueue这个队列,每个值被读取一次就会放入这个队列的尾部
preWriteCleanup(now);
int newCount = this.count - 1;
AtomicReferenceArray> table = this.table;
int index = hash & (table.length() - 1);
ReferenceEntry first = table.get(index);
// 这里为了防止中间有其他线程并发操作了当前key,需要再次根据key找到对应的entry链表,进行遍历查找,判断对应的value
for (e = first; e != null; e = e.getNext()) {
K entryKey = e.getKey();
if (e.getHash() == hash
&& entryKey != null
&& map.keyEquivalence.equivalent(key, entryKey)) {
valueReference = e.getValueReference();
// 如果找到相等的key,并且key的value正在加载中(其他线程并发操作的)
// 则将createNewEntry设置为false,表示当前线程没有创建新的entry
if (valueReference.isLoading()) {
createNewEntry = false;
} else {
V value = valueReference.get();
// 如果value为null,则表示value是因为非强引用遇到gc回收导致的null值情况,需要加入到统计队列中
if (value == null) {
enqueueNotification(
entryKey, hash, value, valueReference.getWeight(), RemovalCause.COLLECTED);
//如果找到了value,当前值已过期,则也加入到统计通知队列中
} else if (map.isExpired(e, now)) {
// This is a duplicate check, as preWriteCleanup already purged expired
// entries, but let's accomodate an incorrect expiration queue.
enqueueNotification(
entryKey, hash, value, valueReference.getWeight(), RemovalCause.EXPIRED);
// 如果找到了value,并且value没有过期,则直接返回
} else {
recordLockedRead(e, now);
statsCounter.recordHits(1);
// we were concurrent with loading; don't consider refresh
return value;
}
// immediately reuse invalid entries
writeQueue.remove(e);
accessQueue.remove(e);
this.count = newCount; // write-volatile
}
break;
}
}
// 如果需要重新创建entry(前面判断得到的value为空,或者value已过期),则创建新ValueReference,并设置到链表中,需要注意的是,这个只是设置valueReference,并不是正在的去加载值,同步加载值的操作是在下面loadSync
if (createNewEntry) {
loadingValueReference = new LoadingValueReference<>();
if (e == null) {
e = newEntry(key, hash, first);
e.setValueReference(loadingValueReference);
table.set(index, e);
} else {
e.setValueReference(loadingValueReference);
}
}
} finally {
unlock();
postWriteCleanup();
}
// 前面设置了ValueReference后,这一步进行同步的加载获取值
if (createNewEntry) {
try {
// Synchronizes on the entry to allow failing fast when a recursive load is
// detected. This may be circumvented when an entry is copied, but will fail fast most
// of the time.
// 同步获取结果值,会对entry加锁,当多个线程同时操作同一个key时,会有同步阻塞等待。
synchronized (e) {
return loadSync(key, hash, loadingValueReference, loader);
}
} finally {
statsCounter.recordMisses(1);
}
} else {
// 前面有一步判断key的状态是否为loading,如果是,到这一步就是去同步等待loading结束,返回结果
return waitForLoadingValue(e, key, valueReference);
}
}
/**
* 同步加载数据
**/
V loadSync(
K key,
int hash,
LoadingValueReference loadingValueReference,
CacheLoader super K, V> loader)
throws ExecutionException {
// 同步加载操作,封装为一个loadingFutrue返回,异步加载loadAsync也是调用loadFutrue这个方法,loadFutrue()方法总的来说就是将加载操作封装为一个future返回,没什么可说的,这里不再分析其源码
ListenableFuture loadingFuture = loadingValueReference.loadFuture(key, loader);
// 这一步是得到value,并进行相关的缓存容量管理等操作
return getAndRecordStats(key, hash, loadingValueReference, loadingFuture);
}
/**
* 等待数据加载完成,并存储到cache中
**/
V getAndRecordStats(
K key,
int hash,
LoadingValueReference loadingValueReference,
ListenableFuture newValue)
throws ExecutionException {
V value = null;
try {
// 这一步就是调用future的get,等待数据加载返回,根据名字可以知道这个方法忽略了线程interrupt,知道数据加载结束
value = getUninterruptibly(newValue);
if (value == null) {
throw new InvalidCacheLoadException("CacheLoader returned null for key " + key + ".");
}
// 记录数据加载成功相关信息, 做统计使用
statsCounter.recordLoadSuccess(loadingValueReference.elapsedNanos());
//
storeLoadedValue(key, hash, loadingValueReference, value);
return value;
} finally {
if (value == null) {
statsCounter.recordLoadException(loadingValueReference.elapsedNanos());
// 删除value正在loading的状态
removeLoadingValue(key, hash, loadingValueReference);
}
}
}
/**
* 将新加载的结果存储到cache中
* 这一步也会对缓存容量进行管理操作(基于size或者weight的LRU清理)
*/
boolean storeLoadedValue(
K key, int hash, LoadingValueReference oldValueReference, V newValue) {
lock();
try {
long now = map.ticker.read();
// 这一步也是数据清理三件套
preWriteCleanup(now);
int newCount = this.count + 1;
// 扩容操作
if (newCount > this.threshold) { // ensure capacity
expand();
newCount = this.count + 1;
}
AtomicReferenceArray> table = this.table;
int index = hash & (table.length() - 1);
ReferenceEntry first = table.get(index);
// 遍历得到对应的entry
for (ReferenceEntry e = first; e != null; e = e.getNext()) {
K entryKey = e.getKey();
if (e.getHash() == hash
&& entryKey != null
&& map.keyEquivalence.equivalent(key, entryKey)) {
ValueReference valueReference = e.getValueReference();
V entryValue = valueReference.get();
// replace the old LoadingValueReference if it's live, otherwise
// perform a putIfAbsent
// 旧值如果存在,进行替换
if (oldValueReference == valueReference
|| (entryValue == null && valueReference != UNSET)) {
++modCount;
if (oldValueReference.isActive()) {
RemovalCause cause =
(entryValue == null) ? RemovalCause.COLLECTED : RemovalCause.REPLACED;
enqueueNotification(key, hash, entryValue, oldValueReference.getWeight(), cause);
newCount--;
}
setValue(e, key, newValue, now);
this.count = newCount; // write-volatile
evictEntries(e);
return true;
}
// the loaded value was already clobbere
enqueueNotification(key, hash, newValue, 0, RemovalCause.REPLACED);
return false;
}
}
++modCount;
ReferenceEntry newEntry = newEntry(key, hash, first);
// 设置新值
setValue(newEntry, key, newValue, now);
table.set(index, newEntry);
this.count = newCount; // write-volatile
// 基于weight比重清理策略进行清理操作
evictEntries(newEntry);
return true;
} finally {
unlock();
postWriteCleanup();
}
}
@GuardedBy("this")
void evictEntries(ReferenceEntry newest) {
if (!map.evictsBySize()) {
return;
}
drainRecencyQueue();
// 如果当前新加入的值的weight大于weight阈值,则直接删除当前值所在entry
// 注意:此处的maxSegmentWeight并不一定是weight,也可能是size!!!
// guava cache在初始化时,会判断当前是基于size还是基于weight来设置maxSegmentWeight,后面会讲
if (newest.getValueReference().getWeight() > maxSegmentWeight) {
if (!removeEntry(newest, newest.getHash(), RemovalCause.SIZE)) {
throw new AssertionError();
}
}
// 如果当前总的weight大于weight阈值,则循环滴遍历accessQueue(队列头部),删除队列中最前的weight>0的元素,直到总的weight <= weight阈值
// 注意:此处的maxSegmentWeight并不一定是weight,也可能是size!!!
while (totalWeight > maxSegmentWeight) {
ReferenceEntry e = getNextEvictable();
if (!removeEntry(e, e.getHash(), RemovalCause.SIZE)) {
throw new AssertionError();
}
}
}
前面在说到,maxSegmentWeight有可能是weight也有可能是size,这是因为guava 在初始化时,会判断当前是设置了size还是weight,如果是size则就按size计算得的weight阈值,否则就根据weight得到
// 下面的操作是判断设置了size还是weight
long getMaximumWeight() {
if (expireAfterWriteNanos == 0 || expireAfterAccessNanos == 0) {
return 0;
}
// 如果设置了size,就返回size,否则返回weight
return (weigher == null) ? maximumSize : maximumWeight;
}
// 当前maxWeight,是根据getMaximumWeight()得到的,因此maxWeight有可能是size也可能是weight的阈值
maxWeight = builder.getMaximumWeight();
// 如果设置了size阈值或者weight阈值(evictsBySize()方法判断)
// 一个cache中有多个segment,因此就是将一个size阈值或weight阈值平分到各个segment上
if (evictsBySize()) {
// Ensure sum of segment max weights = overall max weights
long maxSegmentWeight = maxWeight / segmentCount + 1;
long remainder = maxWeight % segmentCount;
for (int i = 0; i < this.segments.length; ++i) {
if (i == remainder) {
maxSegmentWeight--;
}
this.segments[i] =
createSegment(segmentSize, maxSegmentWeight, builder.getStatsCounterSupplier().get());
}
} else {
for (int i = 0; i < this.segments.length; ++i) {
this.segments[i] =
createSegment(segmentSize, UNSET_INT, builder.getStatsCounterSupplier().get());
}
}
2.2、源码分析总结
guava cache总结
内部数据结构
类似于ConcurrentHashMap,Segement数组 + Entry链表数组
如何管理数据
1、被动清理。只有当访问数据(比如get操作)时,guavacache才会去清理数据.
2、清理两方面的数据
非强引用回收
(1)当key或value为非强引用类型(弱引用或软引用)的对象被GC回收后,其对应的entry会被清理(清理当前segment中<所有(reference queues队列中所有的)>非强引用被回收的数据)。
有效期判断
(2)当数据失效时。 当前数据失效时,会清理整个segment中所有失效的数据(不是只清理当前失效的这个key)。
清理时,线程会尝试获得锁,只有获得锁的线程才会去清理,其他线程得不到锁,则直接返回.
(3)基于size或weight的LRU清理
guava cache是基于LRU算法实现的数据清理,guava cache中有一个accessQueue队列和一个recencyQueue队列,当数据被get读取时,数据节点被放入recencyQueue队列的尾部,当数据被加载出来(包括写操作)时,如果对应的key之前已经存在,则会根据recencyQueue更新accessQueue中元素的顺序(数据顺序按时间排序),然后将新值放入accessQueue尾部,如果key不存在,则直接加入到accessQueue尾部。
当cache中超过阈值需要清理时,则从accessQueue的头部开始清理,这样就实现了LRU
3、失效判断
设置了expiresAfterAccess,并且超过expiresAfterAccess时间没有访问数据(读、写),则数据失效。
设置了expiresAfterWrite,并且超过expiresAfterWrite时间没有更新数据(写),则数据失效。
数据失效时,清理数据,并去load数据
4、数据刷新
设置了refreshAfterWrite,并且超过refreshAfterWrite时间没有更新数据,则调用reload刷新数据(guava内部默认是同步调用,如果要实现异步,需要重写reload操作)
5、清理刷新数据流程
1、首先,访问数据时,如果能通过key找到对应的entry,如果entry对象中对应的key或value为null,则表示是由于gc回收(回收非强引用)导致的,此时会触发对cache中这类数据的主动清理
2、接着判断通过key得到的entry是否超过expiresAfterAccess,如果是则过期,触发主动清理过期数据的操作
3、然后判断entry是否超过expiresAfterWrite,如果是则过期,触发清理过程
4、如果经过上面的操作,数据被清理(返回null),则最后调用load()加载数据。
5、如果经过123,数据不为空,则判断refreshAfterWrite,如果满足,则调用reload()刷新数据
并发处理
guava cache内部没有实现多线程回收数据,而是在访问数据时主动去清理(一般以segment为单位清理),目的是为了减小多线程带来的开销
load()时, 只会有一个线程去执行load(),其他线程会被阻塞,直到数据加载成功。
reload()时,只会有一个线程去执行reload(),其他线程会返回oldValue(),guava内部默认是同步调用reload。
因此guava cache推荐重写reload()方法,其默认实现是同步调用load(),需要自己实现多线程处理(比如在reload中搞一个线程池)
三个时间参数
cache的时间参数一般用于控制数据占用空间和数据的实时性
expiresAfterAccess用于管理数据空间,清理不常用的数据
expiresAfterWrite和refreshAfterWrite则用于管理数据的时效性。
不同的是当expireAfterWrite过期时,会重新同步的load()数据,而refreshAfterWrite过期时,会reload()数据,reload可以实现异步加载。
因此在数据时效性上expireAfterWrite和refreshAfterWrite要比expireAfterAccess更灵敏 , expireAfterAccess可设置的大一些 expireAfterWrite不可设置的太小,否则会造成业务线程同步去拉取数据的频率执行,如果要实现全异步刷新数据,refreshAfterWrite要设置的比前两个值都小,并且实现reload的异步加载。
[图片上传失败...(image-3e576d-1571749293092)]
通过上面对guava cache源码的浅读,解决了我的第一个问题和第二个问题前半部分。
那么如何实现主动清理数据呢?
可以使用HashedWheelTimer来搞一下,写的有点累了,这里就不介绍HashedWheel了,可以自己百度一下,实现很简单,也很使用,尤其是在任务量比较大的场景:
[图片上传失败...(image-c400ef-1571749293092)],另外也可以选择caffeine,这缓存组件性能要远超guava cache,后续再写一篇文章搞一下。