细说shiro之七:缓存

722072-20171215173925824-328828991.png

官网:https://shiro.apache.org/

一. 概述

Shiro作为一个开源的权限框架,其组件化的设计思想使得开发者可以根据具体业务场景灵活地实现权限管理方案,权限粒度的控制非常方便。
首先,我们来看看Shiro框架的架构图:
细说shiro之七:缓存_第1张图片
从上图我们可以很清晰地看到,CacheManager也是Shiro架构中的主要组件之一,Shiro正是通过CacheManager组件实现权限数据缓存。
当权限信息存放在数据库中时,对于每次前端的访问请求都需要进行一次数据库查询。特别是在大量使用shiro的jsp标签的场景下,对应前端的一个页面访问请求会同时出现很多的权限查询操作,这对于权限信息变化不是很频繁的场景,每次前端页面访问都进行大量的权限数据库查询是非常不经济的。因此,非常有必要对权限数据使用缓存方案。
细说shiro之七:缓存_第2张图片
关于shiro权限数据的缓存方式,可以分为2类:其一,将权限数据缓存到集中式存储中间件中,比如redis或者memcached;其二,将权限数据缓存到本地。使用集中式缓存方案,页面的每次访问都会向缓存发起一次网络请求,如果大量使用了shiro的jsp标签,那么对应一个页面访问将会出现N个到集中缓存的网络请求,会给集中缓存组件带来一定的瞬时请求压力。另外,每个标签都需要经过一个网络查询,其实效率并不高。而采用本地缓存方式均不存在这些问题。所以,针对shiro的缓存方案,需要根据实际的使用场景进行权衡。如果在项目中并未使用shiro的jsp标签库,那么使用集中式的缓存方案也未尝不妥;但是,如果大量使用shiro的jsp标签库,那么采用本地缓存才是最佳选择。

二. 如何在shiro中使用缓存

根据Shiro官方的说法,虽然缓存在权限框架中非常重要,但是如果实现一套完整的缓存机制会使得shiro偏离了核心的功能(认证和授权)。因此,Shiro只提供了一个可以支持具体缓存实现(如:Hazelcast, Ehcache, OSCache, Terracotta, Coherence, GigaSpaces, JBossCache等)的抽象API接口,这样就允许Shiro用户根据自己的需求灵活地选择具体的CacheManager。当然,其实Shiro也自带了一个本地内存CacheManager:org.apache.shiro.cache.MemoryConstrainedCacheManager。
细说shiro之七:缓存_第3张图片
其实,从Shiro缓存组件类图可以看到,Shiro提供的缓存抽象API接口正是:org.apache.shiro.cache.CacheManager。
那么,我们应该如何配置和使用CacheManager呢?如下我们以使用Shiro提供的MemoryConstrainedCacheManager组件为例进行说明。
我们知道,SecurityManager是Shiro的核心控制器,我们来看一下其类图:
细说shiro之七:缓存_第4张图片
org.apache.shiro.mgt.CachingSecurityManager是Shiro中SecurityManager接口的基础抽象类,我们来看一下其源码结构:
细说shiro之七:缓存_第5张图片
从图中我们看到,在CachingSecurityManager中存在一个CacheManager类型的成员变量。
另外,接口org.apache.shiro.realm.Realm定义了权限数据的存储方式,我们看一下其类图:
细说shiro之七:缓存_第6张图片
显然,org.apache.shiro.realm.CachingRealm是Shiro中Realm接口的基础实现类,我们同样来看一下其源码结构:
细说shiro之七:缓存_第7张图片
同样,在CachingRealm也存在一个CacheManager类型的成员变量。
从以上分析我们知道:Shiro支持在2个地方定义缓存管理器,既可以在SecurityManager中定义,也可以在Realm中定义,任选其一即可。
通常我们都会自定义Realm实现,例如将权限数据存放在数据库中,那么在Realm实现中定义缓存管理器再合适不过了。
举个例子,我们扩展了org.apache.shiro.realm.jdbc.JdbcRealm,在其中定义一个缓存组件。




    
    
    


当然,同样可以在SecurityManager中定义缓存组件:


    
    
    

那么,我们不禁要问了:
第一:为什么Shiro要设计成既可以在Realm,也可以在SecurityManager中设置缓存管理器呢?
第二:分别在Realm和SecurityManager定义的缓存管理器,他们有什么区别或联系吗?
下面,我们追踪一下org.apache.shiro.mgt.RealmSecurityManage的源码实现:

protected void applyCacheManagerToRealms() {
    CacheManager cacheManager = getCacheManager();
    Collection realms = getRealms();
    if (cacheManager != null && realms != null && !realms.isEmpty()) {
        for (Realm realm : realms) {
            if (realm instanceof CacheManagerAware) {
                ((CacheManagerAware) realm).setCacheManager(cacheManager);
            }
        }
    }
}

这下终于真相大白了吧!其实在SecurityManager中设置的CacheManager组中都会给Realm使用,即:真正使用CacheManager的组件是Realm。

三. 缓存方案

1. 集中式缓存

我们在前面分析了,使用集中式缓存方案只适用于那些没有使用shiro的jsp标签的场景,比如:前后端完全分离的项目。目前比较流行的集中式缓存组件有:Redis,Memcache等,我们可以借助于这样的集中式缓存实现shiro的缓存方案。
虽然使用了集中式缓存组件,但是不必要直接把权限数据本身存放到集中式缓存中,而是通过在集中式缓存中存放缓存标志即可。这样可以避免直接从集中式缓存中取权限数据,当权限数据比较大时,大量权限数据查询所占用的带宽也是比较可观的。

  • 基于Redis的集中式缓存方案:https://github.com/alexxiyang/shiro-redis
  • 基于Memcached的集中式缓存方案:https://github.com/mythfish/shiro-memcached
  • 基于Ehcache集群模式的存放方案:http://www.ehcache.org/

2. 本地缓存

本地缓存的实现有几种方式:(1)直接存放到JVM堆内存(2)使用NIO存放在堆外内存,自定义实现或者借助于第三方缓存组件。
不论是采用集中式缓存还是使用本地缓存,shiro的权限数据本身都是直接存放在本地的,不同的是缓存标志的存放位置。采用本地缓存方案是,我们将缓存标志也存放在本地,这样就避免了查询缓存标志的网络请求,能更进一步提升缓存效率。

四. 缓存更新

不论是集中式缓存还是本地缓存方案,我们都需要考虑这样一个问题:如果使用了shiro框架的服务端进行了多实例部署,首先需要对session进行同步,因为shiro的认证信息是存放在session中的;其次,当前端操作在某个实例上修改了权限时,需要通知后端服务的多个实例重新获取最新的权限数据。那么有哪些方案可以实现通知到后端服务的多个实例呢?

1. 组播通知

所谓组播通知即:当前端操作在后端服务的某个实例上修改了权限时,就采用组播消息的方式通知其他服务实例节点,把当前缓存的权限数据失效,重新从数据库中取最新的权限数据进行缓存。虽然组播通知非常高效,而且实现也很简单。但是,组播消息通过UDP发送,而UDP本身存在不可靠性。也就是说,如果在某个时刻发生某个修改了权限的后端服务实例发送给其他节点的组播消息丢失而导致其他节点未收到对缓存失效的通知时,将可能会导致系统的权限管理混乱,甚至导致系统不可用,并且不好排查具体是什么原因导致组播消息丢失,对于系统可用性的修复带来很大的不便利。因此,这种方式仅仅是作为一种参考实现,不在实际场景使用。
当然,组播方式有它使用的场景,但是在这里确实不适用。
细说shiro之七:缓存_第8张图片

2. zk通知

zookeeper最核心的功能就是统一配置,同时还可以用来实现服务注册与发现,在这里使用的zookeeper特性是:watcher机制。当某个节点的状态发生改变时,监控该节点状态的组件将会收到通知。利用这个特点,我们可以将shiro的缓存标志通过zookeeper及时通知的方式缓存在本地。当在某个后端服务节点上修改了权限时,同时修改zookeeper节点的状态,这样其他服务节点也能及时收到通知,从而可以更新自己本地的缓存标志。使用zookeeper方案的好处是:即便zookeeper节点故障了,也不会导致系统不可用,最多就是不能使用缓存数据而是每次都直接查找数据库。当zookeeper节点出现故障时后端的应用服务节点可以收到通知,更新缓存标志,并且可以发出通知。这样,我们也可以及时发现缓存方案不可用了,需要进行修复。当然,这样做的坏处就是引入了新的节点,增加了管理的复杂性。
细说shiro之七:缓存_第9张图片
总之,使用zk方式来控制shiro的本地缓存更新比较灵活,即便是只有一个zk实例,也不会因为其单点故障导致程序不可用。而且,当zk故障恢复之后能够使得web应用的本地缓存更新机制恢复正常。

3. 具体实现

不论是组播通知还是zk通知,其目的都是为了解决缓存更新问题。那么,具体到代码实现应该怎么做呢?
举个例子,如果我们将权限数据存放在MySQL中,且自定义了JDBC Realm,那么可以在获取缓存信息时根据条件直接清空缓存即可。每次清空缓存之后,Shiro会重新从数据库中查询最新的权限数据进行缓存。缓存更新使用zk方式实现,千言万语都不如来一段代码示例:

/**
 * 扩展使用了缓存组件的JDBC Realm
 * @desc org.chench.test.shiro.spring.dao.ShiroCacheJdbcRealm
 * @date 2017年12月14日
 */
public class ShiroCacheJdbcRealm extends JdbcRealm {
    private static final Logger logger = LoggerFactory.getLogger(ShiroCacheJdbcRealm.class);

    @Override
    public Cache getAuthorizationCache() {
        Cache cache = super.getAuthorizationCache();
        if(cache == null) {
            return cache;
        }
        if(!Constants.isConnected() || Constants.isRefresh()) {
            if(logger.isWarnEnabled()) {
                logger.warn("clear shiro cache");
            }
            cache.clear();
        }
        return cache;
    }
}
/**
 * 在应用上下文监听器中监听zk事件,从而实现shiro缓存更新通知.
 * @desc org.chench.test.shiro.spring.listener.ShiroCacheListener
 * @date 2017年12月13日
 */
public class ShiroCacheListener implements ServletContextListener, Watcher, StatCallback {
    private Logger logger = LoggerFactory.getLogger(ShiroCacheListener.class);
    private ZooKeeper zk = null;
    
    @Override
    public void contextInitialized(ServletContextEvent sce) {
        logger.info("shiro cache listener context initialized");
        init();
    }

    @Override
    public void contextDestroyed(ServletContextEvent sce) {
        logger.info("shiro cache listener context destroyed");
        release();
    }
    
    private void init() {
        try {
            zk = new ZooKeeper(Constants.ZK_SERVERS, Constants.ZK_SESSION_TIMEOUT, this);
            Stat stat = zk.exists(Constants.ZK_ZNODE_SHIRO_CACHE, false);
            if(stat != null) {
                zk.exists(Constants.ZK_ZNODE_SHIRO_CACHE, true, this, null);
                return;
            }
            
            byte[] data = String.valueOf(Calendar.getInstance().getTime().getTime()).getBytes();
            zk.create(Constants.ZK_ZNODE_SHIRO_CACHE, data, Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
        } catch (Exception e) {
            e.printStackTrace();
            Constants.setRefresh(true);
        }
    }

    private void release() {
        try {
            if(zk != null) {
                zk.close();
            }
        } catch (InterruptedException e) {
            e.printStackTrace();
        } finally {
            zk = null;
        }
    }
    
    @Override
    public void process(WatchedEvent event) {
        String path = event.getPath();
        logger.info("watcher process path: " + path + " event type: " + event.getType());
        if(Event.EventType.None == event.getType()) {
            switch (event.getState()) {
            case SyncConnected:
                logger.info("watcher process SyncConnected");
                Constants.setConnected(true);
                break;
            case Disconnected:
            case Expired:
                logger.info("watcher process {}", event.getState());
                Constants.setConnected(false);
                Constants.setRefresh(true);
                break;
            default:
                break;
            }
        }else if(Event.EventType.NodeCreated == event.getType()) {
            if(Constants.ZK_ZNODE_SHIRO_CACHE.equals(path)) {
                zk.exists(Constants.ZK_ZNODE_SHIRO_CACHE, true, this, null);
            }
        }else if(Event.EventType.NodeDataChanged == event.getType()){
            if(Constants.ZK_ZNODE_SHIRO_CACHE.equals(path)) {
                zk.exists(Constants.ZK_ZNODE_SHIRO_CACHE, true, this, null);
                Constants.setRefresh(true);
            }
        }else {
            logger.info("do nothing");
        }
    }

    // 读取znode数据
    @Override
    public void processResult(int rc, String path, Object ctx, Stat stat) {
        logger.info("rc: {}, path:{}, ctx: {}, stat: {}", new Object[] {rc, path, ctx, stat});
        
        switch (rc) {
        case Code.Ok:
            logger.info("statcallback proess result Ok");
            break;
        case Code.NoNode:
            logger.info("statcallback proess result NoNode");
            break;
        case Code.ConnectionLoss:
            logger.info("statcallback proess result ConnectionLoss");
            break;
        case Code.SessionExpired:
            logger.info("statcallback proess result SessionExpired");
            break;
        case Code.OperationTimeout:
            logger.info("statcallback proess result OperationTimeout");
            break;
        default:
            zk.exists(Constants.ZK_ZNODE_SHIRO_CACHE, true, this, null);
            break;
        }
        
        try {
            byte[] bytes = zk.getData(Constants.ZK_ZNODE_SHIRO_CACHE, false, null);
            long timestamp = Long.valueOf(new String(bytes, 0, bytes.length));
            SimpleDateFormat format =new SimpleDateFormat("yyyy-MM-dd hh:mm:ss");
            logger.info("修改时间: " + format.format(new Date(timestamp)));
        } catch (KeeperException e) {
            e.printStackTrace();
        } catch (InterruptedException e) {
            e.printStackTrace();
        }
    }
}

【参考】
https://shiro.apache.org/caching.html

转载于:https://www.cnblogs.com/nuccch/p/8044226.html

你可能感兴趣的:(大数据,后端,数据库)