分布式锁之Redisson

Redisson

如果在公司里落地生产环境用分布式锁的时候,一定是会用开源类库的,比如Redis分布式锁,一般就是用Redisson框架就好了,非常的简便易用。

Redisson案例实现

  1. 加入jar包依赖

   org.redisson
   redisson
   3.11.0
  
  1. 配置Redisson
public class RedissonManager {
    private static Config config = new Config();
    //声明redisso对象
    private static Redisson redisson = null;
   //实例化redisson
 static{
     config.useSingleServer().setAddress("127.0.0.1:6379");
          //得到redisson对象
        redisson = (Redisson) Redisson.create(config);

}

 //获取redisson对象的方法
    public static Redisson getRedisson(){
        return redisson;
    }
}
  1. 锁的获取和释放
public class RedissonLock {
    //从配置类中获取redisson对象
    private static Redisson redisson = RedissonManager.getRedisson();
    private static final String LOCK_TITLE = "redisLock_";
    //加锁
    public static boolean acquire(String lockName){
        //声明key对象
        String key = LOCK_TITLE + lockName;
        //获取锁对象
        RLock mylock = redisson.getLock(key);
        //加锁,并且设置锁过期时间,防止死锁的产生
        mylock.lock(2, TimeUnit.MINUTES);
        System.err.println("======lock======"+Thread.currentThread().getName());
        //加锁成功
        return  true;
    }
    //锁的释放
    public static void release(String lockName){
        //必须是和加锁时的同一个key
        String key = LOCK_TITLE + lockName;
        //获取所对象
        RLock mylock = redisson.getLock(key);
        //释放锁(解锁)
        mylock.unlock();
        System.err.println("======unlock======"+Thread.currentThread().getName());
    }
}
  1. 使用CyclicBarrier模拟并发获取分布式锁
/**
 * 使用CyclicBarrier模拟并发获取分布式锁
 */
public class CucTest {
  public static void main(String[] args) {
        int N = 4;
        CyclicBarrier barrier  = new CyclicBarrier(N);
        for(int i=0;i
  1. 测试结果


    分布式锁测试结果.jpg

Redisson实现原理

底层原理图.png

加锁机制

现在某个客户端要加锁。如果该客户端面对的是一个redis cluster集群,他首先会根据hash节点选择一台机器。
紧接着,就会发送一段lua脚本到redis上,那段lua脚本如下所示:

if (redis.call('exists', KEYS[1]) == 0) then 
redis.call('hset', KEYS[1], ARGV[2], 1);
redis.call('pexpire', KEYS[1], ARGV[1]);
return nil;
end;
if (redis.call('hexists', KEYS[1], ARGV[2]) == 1) then
redis.call('hincrby', KEYS[1], ARGV[2], 1);
redis.call('pexpire', KEYS[1], ARGV[1]);
return nil;
end;
return redis.call('pttl', KEYS[1]);
  • 为啥要用lua脚本呢?
    因为一大坨复杂的业务逻辑,可以通过封装在lua脚本中发送给redis,保证这段复杂业务逻辑执行的原子性
  • 这段lua脚本是什么意思呢?
    KEYS[1]代表的是你加锁的那个key,比如说:String key = myLock;
    ARGV[1]代表的就是锁key的默认生存时间,默认30秒。
    ARGV[2]代表的是加锁的客户端的ID,类似于下面这样:8743c9c0-0795-4907-87fd-6c719a6b4586:1
  • 脚本含义
  1. 第一段if判断语句,就是用“exists myLock”命令判断一下,如果要加锁的那个锁key不存在的话,就进行加锁。(setnx)
    hset myLock 8743c9c0-0795-4907-87fd-6c719a6b4586:1 1
  2. 接着会执行“pexpire myLock 30000”命令,设置myLock这个锁key的生存时间是30秒。

锁互斥机制

如果客户端2来尝试加锁,执行了同样的一段lua脚本,会咋样呢?

  1. 第一个if判断会执行“exists myLock”,发现myLock这个锁key已经存在了。
  2. 接着第二个if判断,判断一下,myLock锁key的hash数据结构中,是否包含客户端2的ID,但是明显不是的,因为那里包含的是客户端1的ID。(重入锁的实现)
  3. 所以,客户端2会获取到pttl myLock返回的一个数字,这个数字代表了myLock这个锁key的剩余生存时间。比如还剩15000毫秒的生存时间。
  4. 此时客户端2会进入一个while循环,不停的尝试加锁。

watch dog自动延期机制

  1. 客户端1加锁的锁key默认生存时间才30秒,如果超过了30秒,客户端1还想一直持有这把锁,怎么办呢?
    只要客户端1一旦加锁成功,就会启动一个watch dog看门狗,他是一个后台线程,会每隔10秒检查一下,如果客户端1还持有锁key,那么就会不断的延长锁key的生存时间。

可重入加锁机制

  1. 那如果客户端1都已经持有了这把锁了,结果可重入的加锁会怎么样呢?
  • 第一个if判断肯定不成立,“exists myLock”会显示锁key已经存在了。
  • 第二个if判断会成立,因为myLock的hash数据结构中包含的那个ID,就是客户端1的那个ID,也就是“8743c9c0-0795-4907-87fd-6c719a6b4586:1”
  • 此时就会执行可重入加锁的逻辑,他会用:incrby myLock 8743c9c0-0795-4907-87fd-6c71a6b4586:1 1 通过这个命令,对客户端1的加锁次数,累加1。
  • 那个myLock的hash数据结构中的那个客户端ID,就对应着加锁的次数

释放锁机制

  1. 执行lock.unlock(),就可以释放分布式锁,此时的业务逻辑也是非常简单的。就是每次都对myLock数据结构中的那个加锁次数减1。
  2. 如果发现加锁次数是0了,说明这个客户端已经不再持有锁了,此时就会用:“del myLock”命令,从redis里删除这个key。
  3. 另外的客户端2就可以尝试完成加锁了。
  • 综上所述:
    这就是所谓的分布式锁的开源Redisson框架的实现机制。

Redis分布式锁的缺点

  • 其实上面那种方案最大的问题,就是如果你对某个redis master实例,写入了myLock这种锁key的value,此时会异步复制给对应的master slave实例。
  • 但是这个过程中一旦发生redis master宕机,主备切换,redis slave变为了redis master。
  • 接着就会导致,客户端2来尝试加锁的时候,在新的redis master上完成了加锁,而客户端1也以为自己成功加了锁。
  • 此时就会导致多个客户端对一个分布式锁完成了加锁。
  • 这时系统在业务语义上一定会出现问题,导致各种脏数据的产生。
  • 所以这个就是redis cluster,或者是redis master-slave架构的主从异步复制导致的redis分布式锁的最大缺陷:在redis master实例宕机的时候,可能导致多个客户端同时完成加锁。

你可能感兴趣的:(分布式锁之Redisson)