Redis 基础

目录

1、启动

2、基本操作

2.1、key和string

2.2、hash

2.3、list

2.4、set

2.5、sortset

3、jedis

4、TTL(Tme to Live)

5、淘汰机制


1、启动

//// windows
redis-server.exe redis.windows.conf
redis-cli.exe -h 127.0.0.1 -p 6379

//// linux
./redis-server redis.conf
./redis-cli

2、基本操作

2.1、key和string

//// key区分大小写

//// 插入(key:value),其中value是string
set key value
//// 删除key
del key
//// 获取key(value需要是string类型)
get key

2.2、hash

hash是hashtable结构

//// 插入hash(key:{age:23})
hset key age 23
//// 获取hash值
hget key age

渐进式rehash:

在redis中,扩展或收缩哈希表需要将 ht[0] 里面的所有键值对 rehash 到 ht[1] 里面,但是,这个 rehash 动作并不是一次性、集中式地完成的, 而是分多次、渐进式地完成的。为了避免 rehash 对服务器性能造成影响,服务器不是一次性将 ht[0] 里面的所有键值对全部 rehash 到 ht[1],而是分多次、渐进式地将 ht[0] 里面的键值对慢慢地 rehash 到 ht[1] 。

步骤:

  1. 为 ht[1] 分配空间, 让字典同时持有 ht[0] 和 ht[1] 两个哈希表。
  2. 在字典中维持一个索引计数器变量 rehashidx , 并将它的值设置为 0 , 表示 rehash 工作正式开始。
  3. 在 rehash 进行期间, 每次对字典执行添加、删除、查找或者更新操作时, 程序除了执行指定的操作以外, 还会顺带将 ht[0] 哈希表在 rehashidx 索引上的所有键值对 rehash 到 ht[1] , 当 rehash 工作完成之后, 程序将 rehashidx 属性的值增一。
  4. 随着字典操作的不断执行, 最终在某个时间点上, ht[0] 的所有键值对都会被 rehash 至 ht[1] , 这时程序将 rehashidx 属性的值设为 -1 , 表示 rehash 操作已完成。

渐进式 rehash 的好处在于它采取分而治之的方式, 将 rehash 键值对所需的计算工作均滩到对字典的每个添加、删除、查找和更新操作上, 从而避免了集中式 rehash 而带来的庞大计算量。

产生的结果和带来的问题:

因为在进行渐进式 rehash 的过程中, 字典会同时使用 ht[0] 和 ht[1] 两个哈希表, 所以在渐进式 rehash 进行期间, 字典的删除(delete)、查找(find)、更新(update)等操作会在两个哈希表上进行: 比如说, 要在字典里面查找一个键的话, 程序会先在 ht[0] 里面进行查找, 如果没找到的话, 就会继续到 ht[1] 里面进行查找, 诸如此类。

另外, 在渐进式 rehash 执行期间, 新添加到字典的键值对一律会被保存到 ht[1] 里面, 而 ht[0] 则不再进行任何添加操作: 这一措施保证了 ht[0] 包含的键值对数量会只减不增, 并随着 rehash 操作的执行而最终变成空表。

渐进式rehash避免了redis阻塞,可以说非常完美,但是由于在rehash时,需要分配一个新的hash表,在rehash期间,同时有两个hash表在使用,会使得redis内存使用量瞬间突增,在Redis 满容状态下由于Rehash会导致大量Key驱逐。

2.3、list

实现原理:https://blog.csdn.net/Dopamy_BusyMonkey/article/details/107185361

//// 插入list(双向链表,左右都可以插入/取出)
lpush key value1
lpush key value2
lpush key value3
//// 范围获取list
lrange key 0 10

2.4、set

集合对象的编码可以是intset和hashtable之一。

intset编码的集合对象底层实现是整数集合,所有元素都保存在整数集合中。

hashtable编码的集合对象底层实现是字典,字典的每个键都是一个字符串对象,保存一个集合元素,不同的是字典的值都是NULL。具体参考哈希类型。

集合对象编码转换:

  • 集合对象使用intset编码需要满足两个条件:一是所有元素都是整数值;二是元素个数小于等于512个;不满足任意一条都将使用hashtable编码。
  • 以上第二个条件可以在Redis配置文件中修改et-max-intset-entries选项。
//// 插入set
sadd key set1
sadd key set2
//// 获取set
smembers key

2.5、sortset

实现原理:https://blog.csdn.net/Dopamy_BusyMonkey/article/details/90512632

//// 插入有序set
zadd SortSet 1 set1
zadd SortSet 1 set2
zadd SortSet 0 set3
//// 获取范围内的数据(带上分数,分数相同的按升序排列,总体按分数升序排列)
zrange SortSet 0 3 withscores

3、jedis

package com.busymonkey;

import java.util.List;

import redis.clients.jedis.Jedis;

public class RedisJava {

	public static void main(String[] args) {
		Jedis jedis = new Jedis("localhost");
		System.out.println("Connection to server sucessfully");
		System.out.println("Server is running: " + jedis.ping());
		jedis.set("runoobkey", "Redis tutorial");
		System.out.println("Stored string in redis:: " + jedis.get("runoobkey"));
		jedis.lpush("tutorial-list", "Redis");
		jedis.lpush("tutorial-list", "Mongodb");
		jedis.lpush("tutorial-list", "Mysql");
		List list = jedis.lrange("tutorial-list", 0, 5);
		for (int i = 0; i < list.size(); i++) {
			System.out.println("Stored string in redis:: " + list.get(i));
		}
		jedis.close();
	}

}

4、TTL(Tme to Live)

  • expire 按照相对时间且以秒为单位的过期策略
  • expireat 按照绝对时间且以秒为单位的过期策略
  • pexpire 按照相对时间且以毫秒为单位的过期策略
  • pexpireat 按照绝对时间且以毫秒为单位的过期策略

5、淘汰机制

redis采用的是定期删除+惰性删除策略。

为什么不用定时删除策略:定时删除,用一个定时器来负责监视key,过期则自动删除。虽然内存及时释放,但是十分消耗CPU资源。在大并发请求下,CPU要将时间应用在处理请求,而不是删除key,因此没有采用这一策略.

定期删除+惰性删除是如何工作的呢:定期删除,redis默认每个100ms检查,是否有过期的key,有过期key则删除。需要说明的是,redis不是每个100ms将所有的key检查一次,而是随机抽取进行检查(如果每隔100ms,全部key进行检查,redis岂不是卡死)。因此,如果只采用定期删除策略,会导致很多key到时间没有删除。于是,惰性删除派上用场。也就是说在你获取某个key的时候,redis会检查一下,这个key如果设置了过期时间那么是否过期了?如果过期了此时就会删除。

采用定期删除+惰性删除就没其他问题了么:不是的,如果定期删除没删除key。然后你也没即时去请求key,也就是说惰性删除也没生效。这样,redis的内存会越来越高。那么就应该采用内存淘汰机制。在redis.conf中有一行配置

maxmemory-policy volatile-lru
  • volatile-lru:从设置过期时间的数据集(server.db[i].expires)中挑选出使用频率最小的数据淘汰。没有设置过期时间的key不会被淘汰,这样就可以在增加内存空间的同时保证需要持久化的数据不会丢失
  • volatile-ttl:从已设置过期时间的数据集中挑选将要过期的数据淘汰
  • volatile-random:从已设置过期时间的数据集中任意选择数据淘汰
  • allkeys-lru:从数据集(server.db[i].dict)中挑选使用频率最小的数据淘汰,该策略要淘汰的key面向的是全体key集合,而非过期的key集合
  • allkeys-random:从数据集中任意选择数据淘汰,当内存达到限制的时候,对所有数据集挑选随机淘汰,可写入新的数据集。
  • no-enviction:当内存达到限制的时候,不淘汰任何数据,不可写入任何数据集,所有引起申请内存的命令会报错。

 

 

你可能感兴趣的:(Java,NoSQL)