redis
概述Redis(Remote Dictionary Server)
,即远程字典服务,是一个开源的使用C
语言编写,基于内存的且支持持久化,高性能的Key-Value
的NOSQL
数据库;Redis
支持的数据结构类型很丰富,如 :字符串(strings
), 散列(hashes
), 列表(lists
), 集合(sets
), 有序集合(sorted sets
) 以及范围查询, bitmaps
(位图), hyperloglogs
(超级日志)和 地理空间(geospatial
) 索引半径查询等等。Redis
内置复制、Lua
脚本、LRU
驱逐、事务和不同级别的磁盘持久化,并通过 Redis Sentinel
和Redis Cluster
自动分区提供高可用性;我们可以将Redis
应用在缓存、数据库、消息中间件等上。
NOSQL
分类NOSQL类型 | 主要数据库产品 | 类型特色 |
---|---|---|
K-V 键值对存储类型 |
Redis、Memcached |
使用key 可以快速的查询到value ,Memcached 可以支持String 类型的值value ,Redis 支持的值的数据类型很多如:String\set\hash\sortset\list 等等 |
文档存储类型 | MongoDB、CouchDB |
使用JSON 或类JSON 的BSON 数据结构,存储的内容为文档型,能够实现部分关系型数据库的功能 |
列存储类型 | HBase 、Cassandra |
按照列进行数据存储,该类型便于存储结构化和半结构化的数据,可以方便做数据压缩和针对某一列或者某几列的数据查询 |
图存储类型 | Neo4J、FlockDB |
以图形关系存储数据,能够很好的弥补关系型数据库在图形存储时的不足 |
对象存储类型 | Db4o、Versant |
该存储类型的数据库通过类似面向对象的方式操作数据库,通过对象的方式存取数据 |
XML 存储类型 |
Berkeley DB XML、BaseX |
该类型数据库可以高效的存储XML数据,并且支持XML 的内部查询语法,例如;XQuery、XPath |
redis
集群搭建redis
安装第一步:下载redis
安装包
wget http://download.redis.io/releases/redis-4.0.6.tar.gz
[root@iZwz991stxdwj560bfmadtZ local]# wget http://download.redis.io/releases/redis-4.0.6.tar.gz
--2017-12-13 12:35:12-- http://download.redis.io/releases/redis-4.0.6.tar.gz
Resolving download.redis.io (download.redis.io)... 109.74.203.151
Connecting to download.redis.io (download.redis.io)|109.74.203.151|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: 1723533 (1.6M) [application/x-gzip]
Saving to: ‘redis-4.0.6.tar.gz’
100%[==========================================================================================================>] 1,723,533 608KB/s in 2.8s
2017-12-13 12:35:15 (608 KB/s) - ‘redis-4.0.6.tar.gz’ saved [1723533/1723533]
第二步:解压压缩包
tar -zxvf redis-4.0.6.tar.gz
[root@iZwz991stxdwj560bfmadtZ local]# tar -zxvf redis-4.0.6.tar.gz
第三步:yum
安装gcc
依赖
yum install gcc
[root@iZwz991stxdwj560bfmadtZ local]# yum install gcc
遇到选择,输入y即可
第四步:跳转到redis
解压目录下
cd redis-4.0.6
[root@iZwz991stxdwj560bfmadtZ local]# cd redis-4.0.6
第五步:编译安装
make MALLOC=libc
[root@iZwz991stxdwj560bfmadtZ redis-4.0.6]# make MALLOC=libc
将/usr/local/redis-4.0.6/src
目录下的文件加到/usr/local/bin
目录
cd src && make install
[root@iZwz991stxdwj560bfmadtZ redis-4.0.6]# cd src && make install
CC Makefile.dep
Hint: It's a good idea to run 'make test' ;)
INSTALL install
INSTALL install
INSTALL install
INSTALL install
INSTALL install
先切换到redis src
目录下
[root@iZwz991stxdwj560bfmadtZ redis-4.0.6]# cd src
1、直接启动redis
./redis-server
[root@iZwz991stxdwj560bfmadtZ src]# ./redis-server
18685:C 13 Dec 12:56:12.507 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo
18685:C 13 Dec 12:56:12.507 # Redis version=4.0.6, bits=64, commit=00000000, modified=0, pid=18685, just started
18685:C 13 Dec 12:56:12.507 # Warning: no config file specified, using the default config. In order to specify a config file use ./redis-server /path/to/redis.conf
_._
_.-``__ ''-._
_.-`` `. `_. ''-._ Redis 4.0.6 (00000000/0) 64 bit
.-`` .-```. ```\/ _.,_ ''-._
( ' , .-` | `, ) Running in standalone mode
|`-._`-...-` __...-.``-._|'` _.-'| Port: 6379
| `-._ `._ / _.-' | PID: 18685
`-._ `-._ `-./ _.-' _.-'
|`-._`-._ `-.__.-' _.-'_.-'|
| `-._`-._ _.-'_.-' | http://redis.io
`-._ `-._`-.__.-'_.-' _.-'
|`-._`-._ `-.__.-' _.-'_.-'|
| `-._`-._ _.-'_.-' |
`-._ `-._`-.__.-'_.-' _.-'
`-._ `-.__.-' _.-'
`-._ _.-'
`-.__.-'
18685:M 13 Dec 12:56:12.508 # WARNING: The TCP backlog setting of 511 cannot be enforced because /proc/sys/net/core/somaxconn is set to the lower value of 128.
18685:M 13 Dec 12:56:12.508 # Server initialized
18685:M 13 Dec 12:56:12.508 # WARNING overcommit_memory is set to 0! Background save may fail under low memory condition. To fix this issue add 'vm.overcommit_memory = 1' to /etc/sysctl.conf and then reboot or run the command 'sysctl vm.overcommit_memory=1' for this to take effect.
18685:M 13 Dec 12:56:12.508 # WARNING you have Transparent Huge Pages (THP) support enabled in your kernel. This will create latency and memory usage issues with Redis. To fix this issue run the command 'echo never > /sys/kernel/mm/transparent_hugepage/enabled' as root, and add it to your /etc/rc.local in order to retain the setting after a reboot. Redis must be restarted after THP is disabled.
18685:M 13 Dec 12:56:12.508 * Ready to accept connections
如上图:redis
启动成功,但是这种启动方式需要一直打开窗口,不能进行其他操作,不太方便。
按 ctrl + c
可以关闭窗口。
2、以后台进程方式启动redis
第一步:修改redis.conf
文件
将daemonize no
修改为daemonize yes
第二步:指定redis.conf
文件启动
./redis-server /usr/local/redis-4.0.6/redis.conf
[root@iZwz991stxdwj560bfmadtZ src]# ./redis-server /usr/local/redis-4.0.6/redis.conf
18713:C 13 Dec 13:07:41.109 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo
18713:C 13 Dec 13:07:41.109 # Redis version=4.0.6, bits=64, commit=00000000, modified=0, pid=18713, just started
18713:C 13 Dec 13:07:41.109 # Configuration loaded
第三步:关闭redis
进程
首先使用ps -aux | grep redis
查看redis
进程
[root@iZwz991stxdwj560bfmadtZ src]# ps -aux | grep redis
root 18714 0.0 0.1 141752 2008 ? Ssl 13:07 0:00 ./redis-server 127.0.0.1:6379
root 18719 0.0 0.0 112644 968 pts/0 R+ 13:09 0:00 grep --color=auto redis
使用kill
命令杀死进程
[root@iZwz991stxdwj560bfmadtZ src]# kill 18714
3、设置redis
开机自启动
1、在/etc
目录下新建redis
目录
mkdir redis
[root@iZwz991stxdwj560bfmadtZ etc]# mkdir redis
2、将/usr/local/redis-4.0.6/redis.conf
文件复制一份到/etc/redis
目录下,并命名为6379.conf
[root@iZwz991stxdwj560bfmadtZ redis]# cp /usr/local/redis-4.0.6/redis.conf /etc/redis/6379.conf
3、将redis
的启动脚本复制一份放到/etc/init.d
目录下
[root@iZwz991stxdwj560bfmadtZ init.d]# cp /usr/local/redis-4.0.6/utils/redis_init_script /etc/init.d/redisd
4、设置redis
开机自启动
先切换到/etc/init.d
目录下
然后执行自启命令
[root@iZwz991stxdwj560bfmadtZ init.d]# chkconfig redisd on
service redisd does not support chkconfig
看结果是redisd
不支持chkconfig
解决方法:
使用vim
编辑redisd
文件,在第一行加入如下两行注释,保存退出
# chkconfig: 2345 90 10
# description: Redis is a persistent key-value database
注释的意思是,redis
服务必须在运行级2,3,4,5
下被启动或关闭,启动的优先级是90
,关闭的优先级是10
。
再次执行开机自启命令,成功
[root@iZwz991stxdwj560bfmadtZ init.d]# chkconfig redisd on
现在可以直接已服务的形式启动和关闭redis
了
启动:
service redisd start
[root@izwz991stxdwj560bfmadtz ~]# service redisd start
Starting Redis server...
2288:C 13 Dec 13:51:38.087 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo
2288:C 13 Dec 13:51:38.087 # Redis version=4.0.6, bits=64, commit=00000000, modified=0, pid=2288, just started
2288:C 13 Dec 13:51:38.087 # Configuration loaded
关闭:
方法1:service redisd stop
[root@izwz991stxdwj560bfmadtz ~]# service redisd stop
Stopping ...
Redis stopped
方法2:redis-cli SHUTDOWN
redis
集群搭建安装部署任何一个应用其实都很简单,只要安装步骤一步一步来就行了。下面说一下 Redis
集群搭建规划,由于集群至少需要6
个节点(3
主3
从模式),所以,没有这么多机器给我玩,现在计划是在一台机器上模拟一个集群,当然,这和生产环境的集群搭建没本质区别。
我现在就要在已经有安装了Redis
的一个 CentOS
下开始进行集群搭建。请注意,下面所有集群搭建环境都基于已安装好的 Redis
做的。
我们计划集群中 Redis
节点的端口号为 9001-9006
,端口号即集群下各实例文件夹。数据存放在 端口号/data
文件夹中。
mkdir /usr/local/redis-cluster
cd redis-cluster/
mkdir -p 9001/data 9002/data 9003/data 9004/data 9005/data 9006/data
在/usr/local/redis-cluster
下创建bin
文件夹,用来存放集群运行脚本,并把安装好的 Redis
的src
路径下的运行脚本拷贝过来。看命令:
mkdir redis-cluster/bin
cd /usr/local/redis/src
cp mkreleasehdr.sh redis-benchmark redis-check-aof redis-check-dump redis-cli redis-server redis-trib.rb /usr/local/redis-cluster/bin
Redis
实例我们现在从已安装好的 Redis
中复制一个新的实例到9001
文件夹,并修改 redis.conf
配置。
cp /usr/local/redis/* /usr/local/redis-cluster/9001
注意,修改 redis.conf
配置和单点唯一区别是下图部分,其余还是常规的这几项:
port 9001(每个节点的端口号)
daemonize yes
bind 192.168.119.131(绑定当前机器 IP)
dir /usr/local/redis-cluster/9001/data/(数据文件存放位置)
pidfile /var/run/redis_9001.pid(pid 9001和port要对应)
cluster-enabled yes(启动集群模式)
cluster-config-file nodes9001.conf(9001和port要对应)
cluster-node-timeout 15000
appendonly yes
Redis
实例我们已经完成了一个节点了,其实接下来就是机械化的再完成另外五个节点,其实可以这么做:把9001
实例 复制到另外五个文件夹中,唯一要修改的就是redis.conf
中的所有和端口的相关的信息即可,其实就那么四个位置。开始操作,看图:
\cp -rf /usr/local/redis-cluster/9001/* /usr/local/redis-cluster/9002
\cp -rf /usr/local/redis-cluster/9001/* /usr/local/redis-cluster/9003
\cp -rf /usr/local/redis-cluster/9001/* /usr/local/redis-cluster/9004
\cp -rf /usr/local/redis-cluster/9001/* /usr/local/redis-cluster/9005
\cp -rf /usr/local/redis-cluster/9001/* /usr/local/redis-cluster/9006
\cp -rf
命令是不使用别名来复制,因为 cp
其实是别名cp -i
,操作时会有交互式确认,比较烦人。
9002-9006
的redis.conf
文件其实非常简单了,你通过搜索会发现其实只有四个点需要修改,我们全局替换下吧,进入相应的节点文件夹,做替换就好了。命令非常简单,看图:
vim redis.conf
:%s/9001/9002g
回车后,就会有替换几个地方成功的提示,不放心可以手工检查下:
其实我们也就是替换了下面这四行:
port 9002
dir /usr/local/redis-cluster/9002/data/
cluster-config-file nodes-9002.conf
pidfile /var/run/redis_9002.pid
到这里,我们已经把最基本的环境搞定了,接下来就是启动了。
9001-9006
六个节点/usr/local/bin/redis-server /usr/local/redis-cluster/9001/redis.conf
/usr/local/bin/redis-server /usr/local/redis-cluster/9002/redis.conf
/usr/local/bin/redis-server /usr/local/redis-cluster/9003/redis.conf
/usr/local/bin/redis-server /usr/local/redis-cluster/9004/redis.conf
/usr/local/bin/redis-server /usr/local/redis-cluster/9005/redis.conf
/usr/local/bin/redis-server /usr/local/redis-cluster/9006/redis.conf
可以检查一下是否启动成功:ps -el | grep redis
看的出来,六个节点已经全部启动成功了。
/usr/local/redis-cluster/bin/redis-cli -h 192.168.119.131 -p 9001
set name mafly
连接成功了,但好像报错了阿???
(error) CLUSTERDOWN Hash slot not served
(不提供集群的散列槽),这是什么鬼?
这是因为虽然我们配置并启动了Redis
集群服务,但是他们暂时还并不在一个集群中,互相直接发现不了,而且还没有可存储的位置,就是所谓的slot
(槽)。
由于Redis
集群需要使用ruby
命令,所以我们需要安装ruby
和相关接口。
yum install ruby
yum install rubygems
gem install redis
先不废话,直接敲命令:
/usr/local/redis-cluster/bin/redis-trib.rb create --replicas 1 192.168.119.131:9001 192.168.119.131:9002 192.168.119.131:9003 192.168.119.131:9004 192.168.119.131:9005 192.168.119.131:9006
简单解释一下这个命令:调用 ruby
命令来进行创建集群,--replicas 1
表示主从复制比例为 1:1
,即一个主节点对应一个从节点;然后,默认给我们分配好了每个主节点和对应从节点服务,以及solt
的大小,因为在Redis
集群中有且仅有 16383
个 solt
,默认情况会给我们平均分配,当然你可以指定,后续的增减节点也可以重新分配。
M: 10222dee93f6a1700ede9f5424fccd6be0b2fb73
为主节点Id
S: 9ce697e49f47fec47b3dc290042f3cc141ce5aeb 192.168.119.131:9004 replicates 10222dee93f6a1700ede9f5424fccd6be0b2fb73
从节点下对应主节点Id
目前来看,9001-9003
为主节点,9004-9006
为从节点,并向你确认是否同意这么配置。输入 yes 后,会开始集群创建。
上图则代表集群搭建成功啦!!!
验证一下:
依然是通过客户端命令连接上,通过集群命令看一下状态和节点信息等。
/usr/local/redis-cluster/bin/redis-cli -c -h 192.168.119.131 -p 9001
cluster info
cluster nodes
通过命令,可以详细的看出集群信息和各个节点状态,主从信息以及连接数、槽信息等。这么看到,我们已经真的把 Redis 集群搭建部署成功啦!
设置一个mafly
:
你会发现,当我们 set name mafly
时,出现了 Redirected to slot ``信息并自动连接到了
9002节点。这也是集群的一个数据分配特性,这里不详细说了。
redis
集群原理redis cluster
在设计的时候,就考虑到了去中心化,去中间件,也就是说,集群中的每个节点都是平等的关系,都是对等的,每个节点都保存各自的数据和整个集群的状态。每个节点都和其他所有节点连接,而且这些连接保持活跃,这样就保证了我们只需要连接集群中的任意一个节点,就可以获取到其他节点的数据。
Redis
集群没有并使用传统的一致性哈希来分配数据,而是采用另外一种叫做哈希槽 (hash slot)
的方式来分配的。redis cluster
默认分配了16384
个slot
,当我们set
一个key
时,会用CRC16
算法来取模得到所属的slot
,然后将这个key
分到哈希槽区间的节点上,具体算法就是:CRC16(key) % 16384
。所以我们在测试的时候看到set
和 get
的时候,直接跳转到了7000
端口的节点。
Redis
集群会把数据存在一个master
节点,然后在这个master
和其对应的salve
之间进行数据同步。当读取数据时,也根据一致性哈希算法到对应的 master
节点获取数据。只有当一个master
挂掉之后,才会启动一个对应的 salve
节点,充当 master
。
需要注意的是:必须要3
个或以上的主节点,否则在创建集群时会失败,并且当存活的主节点数小于总节点数的一半时,整个集群就无法提供服务了。
redis
常用数据结构redis
是一种高级的key:value
存储系统,其中value
支持五种数据类型:
1.字符串(strings)
2.字符串列表(lists)
3.字符串集合(sets)
4.有序字符串集合(sorted sets)
5.哈希(hashes)
而关于key
,有几个点要提醒大家:
1、key
不要太长,尽量不要超过1024
字节,这不仅消耗内存,而且会降低查找的效率;
2、key
也不要太短,太短的话,key
的可读性会降低;
3、在一个项目中,key
最好使用统一的命名模式,例如user:10000:passwd
。
redis
数据结构 – strings
有人说,如果只使用redi
s中的字符串类型,且不使用redis
的持久化功能,那么,redis
就和memcache
非常非常的像了。这说明strings
类型是一个很基础的数据类型,也是任何存储系统都必备的数据类型。
我们来看一个最简单的例子:
set mystr "hello world!" //设置字符串类型
get mystr //读取字符串类型
字符串类型的用法就是这么简单,因为是二进制安全的,所以你完全可以把一个图片文件的内容作为字符串来存储。
另外,我们还可以通过字符串类型进行数值操作:
127.0.0.1:6379> set mynum "2"
OK
127.0.0.1:6379> get mynum
"2"
127.0.0.1:6379> incr mynum
(integer) 3
127.0.0.1:6379> get mynum
"3"
看,在遇到数值操作时,redis
会将字符串类型转换成数值。
由于INCR
等指令本身就具有原子操作的特性,所以我们完全可以利用redis
的INCR
、INCRBY
、DECR
、DECRBY
等指令来实现原子计数的效果,假如,在某种场景下有3
个客户端同时读取了mynum
的值(值为2
),然后对其同时进行了加1
的操作,那么,最后mynum
的值一定是5。不少网站都利用redis
的这个特性来实现业务上的统计计数需求。
redis
数据结构 – lists
redis
的另一个重要的数据结构叫做lists
,翻译成中文叫做“列表”。
首先要明确一点,redis
中的lists
在底层实现上并不是数组,而是链表,也就是说对于一个具有上百万个元素的lists
来说,在头部和尾部插入一个新元素,其时间复杂度是常数级别的,比如用LPUSH
在10
个元素的lists
头部插入新元素,和在上千万元素的lists
头部插入新元素的速度应该是相同的。
虽然lists
有这样的优势,但同样有其弊端,那就是,链表型lists
的元素定位会比较慢,而数组型lists
的元素定位就会快得多。
lists
的常用操作包括LPUSH、RPUSH、LRANGE
等。我们可以用LPUSH
在lists
的左侧插入一个新元素,用RPUSH
在lists
的右侧插入一个新元素,用LRANGE
命令从lists
中指定一个范围来提取元素。我们来看几个例子:
//新建一个list叫做mylist,并在列表头部插入元素"1"
127.0.0.1:6379> lpush mylist "1"
//返回当前mylist中的元素个数
(integer) 1
//在mylist右侧插入元素"2"
127.0.0.1:6379> rpush mylist "2"
(integer) 2
//在mylist左侧插入元素"0"
127.0.0.1:6379> lpush mylist "0"
(integer) 3
//列出mylist中从编号0到编号1的元素
127.0.0.1:6379> lrange mylist 0 1
1) "0"
2) "1"
//列出mylist中从编号0到倒数第一个元素
127.0.0.1:6379> lrange mylist 0 -1
1) "0"
2) "1"
3) "2"
lists
的应用相当广泛,随便举几个例子:
1、我们可以利用lists
来实现一个消息队列,而且可以确保先后顺序,不必像MySQL
那样还需要通过ORDER BY
来进行排序。
2、利用LRANGE
还可以很方便的实现分页的功能。
3、在博客系统中,每片博文的评论也可以存入一个单独的list
中。
redis
数据结构 – 集合redis
的集合,是一种无序的集合,集合中的元素没有先后顺序。
集合相关的操作也很丰富,如添加新元素、删除已有元素、取交集、取并集、取差集等。我们来看例子:
//向集合myset中加入一个新元素"one"
127.0.0.1:6379> sadd myset "one"
(integer) 1
127.0.0.1:6379> sadd myset "two"
(integer) 1
//列出集合myset中的所有元素
127.0.0.1:6379> smembers myset
1) "one"
2) "two"
//判断元素1是否在集合myset中,返回1表示存在
127.0.0.1:6379> sismember myset "one"
(integer) 1
//判断元素3是否在集合myset中,返回0表示不存在
127.0.0.1:6379> sismember myset "three"
(integer) 0
//新建一个新的集合yourset
127.0.0.1:6379> sadd yourset "1"
(integer) 1
127.0.0.1:6379> sadd yourset "2"
(integer) 1
127.0.0.1:6379> smembers yourset
1) "1"
2) "2"
//对两个集合求并集
127.0.0.1:6379> sunion myset yourset
1) "1"
2) "one"
3) "2"
4) "two"
对于集合的使用,也有一些常见的方式,比如,QQ
有一个社交功能叫做“好友标签”,大家可以给你的好友贴标签,比如“大美女”、“土豪”、“欧巴”等等,这时就可以使用redis
的集合来实现,把每一个用户的标签都存储在一个集合之中。
redis
数据结构 – 有序集合redis
不但提供了无序集合(sets
),还很体贴的提供了有序集合(sorted sets
)。有序集合中的每个元素都关联一个序号(score
),这便是排序的依据。
很多时候,我们都将redis
中的有序集合叫做zsets
,这是因为在redis
中,有序集合相关的操作指令都是以z
开头的,比如zrange
、zadd
、zrevrange
、zrangebyscore
等等
老规矩,我们来看几个生动的例子:
//新增一个有序集合myzset,并加入一个元素baidu.com,给它赋予的序号是1:
127.0.0.1:6379> zadd myzset 1 baidu.com
(integer) 1
//向myzset中新增一个元素360.com,赋予它的序号是3
127.0.0.1:6379> zadd myzset 3 360.com
(integer) 1
//向myzset中新增一个元素google.com,赋予它的序号是2
127.0.0.1:6379> zadd myzset 2 google.com
(integer) 1
//列出myzset的所有元素,同时列出其序号,可以看出myzset已经是有序的了。
127.0.0.1:6379> zrange myzset 0 -1 with scores
1) "baidu.com"
2) "1"
3) "google.com"
4) "2"
5) "360.com"
6) "3"
//只列出myzset的元素
127.0.0.1:6379> zrange myzset 0 -1
1) "baidu.com"
2) "google.com"
3) "360.com"
redis
数据结构 – 哈希最后要给大家介绍的是hashes
,即哈希。哈希是从redis-2.0.0
版本之后才有的数据结构。
hashes
存的是字符串和字符串值之间的映射,比如一个用户要存储其全名、姓氏、年龄等等,就很适合使用哈希。
我们来看一个例子:
//建立哈希,并赋值
127.0.0.1:6379> HMSET user:001 username antirez password P1pp0 age 34
OK
//列出哈希的内容
127.0.0.1:6379> HGETALL user:001
1) "username"
2) "antirez"
3) "password"
4) "P1pp0"
5) "age"
6) "34"
//更改哈希中的某一个值
127.0.0.1:6379> HSET user:001 password 12345
(integer) 0
//再次列出哈希的内容
127.0.0.1:6379> HGETALL user:001
1) "username"
2) "antirez"
3) "password"
4) "12345"
5) "age"
6) "34"
有关hashes
的操作,同样很丰富,需要时,大家可以从官网查询。
redis
持久化Redis
持久化是指将数据从掉电易失的内存存放到能够永久存储的设备上
redis
提供了两种持久化的方式,分别是RDB(Redis DataBase
)和AOF(Append Only File
)。
RDB
,就是在不同的时间点,将redis
存储的数据生成快照并存储到磁盘等介质上;
AOF
,则是换了一个角度来实现持久化,那就是将redis
执行过的所有写指令记录下来,在下次redis
重新启动时,只要把这些写指令从前到后再重复执行一遍,就可以实现数据恢复了。
其实RDB
和AOF
两种方式也可以同时使用,在这种情况下,如果redis
重启的话,则会优先采用AOF
方式来进行数据恢复,这是因为AOF
方式的数据恢复完整度更高。
如果你没有数据持久化的需求,也完全可以关闭RDB
和AOF
方式,这样的话,redis
将变成一个纯内存数据库,就像memcache
一样。
redis
持久化 – RDB
RDB
方式,是将redis
某一时刻的数据持久化到磁盘中,是一种快照式的持久化方法。
redis
在进行数据持久化的过程中,会先将数据写入到一个临时文件中,待持久化过程都结束了,才会用这个临时文件替换上次持久化好的文件。正是这种特性,让我们可以随时来进行备份,因为快照文件总是完整可用的。
对于RDB
方式,redis
会单独创建(fork)
一个子进程来进行持久化,而主进程是不会进行任何IO
操作的,这样就确保了redis
极高的性能。
如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB
方式要比AOF
方式更加的高效。
虽然RDB
有不少优点,但它的缺点也是不容忽视的。如果你对数据的完整性非常敏感,那么RDB
方式就不太适合你,因为即使你每5
分钟都持久化一次,当redis
故障时,仍然会有近5
分钟的数据丢失。所以,redis
还提供了另一种持久化方式,那就是AOF。
redis
持久化 – AOF
AOF
重写如下图所示:
AOF
,英文是Append Only File
,即只允许追加不允许改写的文件。
如前面介绍的,AOF
方式是将执行过的写指令记录下来,在数据恢复时按照从前到后的顺序再将指令都执行一遍,就这么简单。
我们通过配置redis.conf
中的appendonly yes
就可以打开AOF
功能。如果有写操作(如SET
等),redis
就会被追加到AOF
文件的末尾。
默认的AOF
持久化策略是每秒钟fsync
一次(fsync
是指把缓存中的写指令记录到磁盘中),因为在这种情况下,redis
仍然可以保持很好的处理性能,即使redis
故障,也只会丢失最近1秒钟的数据。
如果在追加日志时,恰好遇到磁盘空间满、inode
满或断电等情况导致日志写入不完整,也没有关系,redis
提供了redis-check-aof
工具,可以用来进行日志修复。
因为采用了追加方式,如果不做任何处理的话,AOF
文件会变得越来越大,为此,redis
提供了AOF
文件重写(rewrite)
机制,即当AOF
文件的大小超过所设定的阈值时,redis
就会启动AOF
文件的内容压缩,只保留可以恢复数据的最小指令集。举个例子或许更形象,假如我们调用了100
次INCR
指令,在AOF
文件中就要存储100``条指令,但这明显是很低效的,完全可以把这100
条指令合并成一条SET
指令,这就是重写机制的原理。
在进行AOF
重写时,仍然是采用先写临时文件,全部完成后再替换的流程,所以断电、磁盘满等问题都不会影响AOF
文件的可用性,这点大家可以放心。
AOF
方式的另一个好处,我们通过一个“场景再现”来说明。某同学在操作redis
时,不小心执行了FLUSHALL
,导致redis
内存中的数据全部被清空了,这是很悲剧的事情。不过这也不是世界末日,只要redis
配置了AOF
持久化方式,且AOF
文件还没有被重写(rewrite
),我们就可以用最快的速度暂停redis
并编辑AOF
文件,将最后一行的FLUSHALL
命令删除,然后重启redis
,就可以恢复redis
的所有数据到FLUSHALL
之前的状态了。是不是很神奇,这就是AOF
持久化方式的好处之一。但是如果AOF
文件已经被重写了,那就无法通过这种方法来恢复数据了。
虽然优点多多,但AOF
方式也同样存在缺陷,比如在同样数据规模的情况下,AOF
文件要比RDB
文件的体积大。而且,AOF
方式的恢复速度也要慢于RDB
方式。
如果你直接执行BGREWRITEAOF
命令,那么redis
会生成一个全新的AOF
文件,其中便包括了可以恢复现有数据的最少的命令集。
如果运气比较差,AOF
文件出现了被写坏的情况,也不必过分担忧,redis
并不会贸然加载这个有问题的AOF
文件,而是报错退出。这时可以通过以下步骤来修复出错的文件:
1、备份被写坏的AOF
文件
2、运行redis-check-aof –fix
进行修复
3、用diff -u
来看下两个文件的差异,确认问题点
4、重启redis
,加载修复后的AOF
文件
redis
持久化 –AOF
重写AOF
重写的内部运行原理,我们有必要了解一下。
在重写即将开始之际,redis
会创建(fork
)一个“重写子进程”,这个子进程会首先读取现有的AOF
文件,并将其包含的指令进行分析压缩并写入到一个临时文件中。
与此同时,主工作进程会将新接收到的写指令一边累积到内存缓冲区中,一边继续写入到原有的AOF
文件中,这样做是保证原有的AOF
文件的可用性,避免在重写过程中出现意外。
当“重写子进程”完成重写工作后,它会给父进程发一个信号,父进程收到信号后就会将内存中缓存的写指令追加到新AOF
文件中。
当追加结束后,redis
就会用新AOF
文件来代替旧AOF
文件,之后再有新的写指令,就都会追加到新的AOF
文件中了。
redis
持久化 – 如何选择RDB
和AOF
对于我们应该选择RDB
还是AOF
,官方的建议是两个同时使用。这样可以提供更可靠的持久化方案。
RDB与AOF的选择
redis
主从 – 同步原理redis
是支持主从同步的,而且也支持一主多从以及多级从结构。
主从结构,一是为了纯粹的冗余备份,二是为了提升读性能,比如很消耗性能的SORT
就可以由从服务器来承担。
redis
的主从同步是异步进行的,这意味着主从同步不会影响主逻辑,也不会降低redis
的处理性能。
主从架构中,可以考虑关闭主服务器的数据持久化功能,只让从服务器进行持久化,这样可以提高主服务器的处理性能。
在主从架构中,从服务器通常被设置为只读模式,这样可以避免从服务器的数据被误修改。但是从服务器仍然可以接受CONFIG
等指令,所以还是不应该将从服务器直接暴露到不安全的网络环境中。如果必须如此,那可以考虑给重要指令进行重命名,来避免命令被外人误执行。
从服务器会向主服务器发出SYNC
指令,当主服务器接到此命令后,就会调用BGSAVE
指令来创建一个子进程专门进行数据持久化工作,也就是将主服务器的数据写入RDB
文件中。在数据持久化期间,主服务器将执行的写指令都缓存在内存中。
在BGSAVE
指令执行完成后,主服务器会将持久化好的RDB
文件发送给从服务器,从服务器接到此文件后会将其存储到磁盘上,然后再将其读取到内存中。这个动作完成后,主服务器会将这段时间缓存的写指令再以redis
协议的格式发送给从服务器。
另外,要说的一点是,即使有多个从服务器同时发来SYNC
指令,主服务器也只会执行一次BGSAVE
,然后把持久化好的RDB
文件发给多个下游。在redis2.8
版本之前,如果从服务器与主服务器因某些原因断开连接的话,都会进行一次主从之间的全量的数据同步;而在2.8
版本之后,redis
支持了效率更高的增量同步策略,这大大降低了连接断开的恢复成本。
主服务器会在内存中维护一个缓冲区,缓冲区中存储着将要发给从服务器的内容。从服务器在与主服务器出现网络瞬断之后,从服务器会尝试再次与主服务器连接,一旦连接成功,从服务器就会把“希望同步的主服务器ID
”和“希望请求的数据的偏移位置(replication offset)
”发送出去。主服务器接收到这样的同步请求后,首先会验证主服务器ID
是否和自己的ID
匹配,其次会检查“请求的偏移位置”是否存在于自己的缓冲区中,如果两者都满足的话,主服务器就会向从服务器发送增量内容。
增量同步功能,需要服务器端支持全新的PSYNC
指令。这个指令,只有在redis-2.8
之后才具有。
redis
的事务处理众所周知,事务是指“一个完整的动作,要么全部执行,要么什么也没有做”。
在聊redis
事务处理之前,要先和大家介绍四个redis
指令,即MULTI、EXEC、DISCARD、WATCH
。这四个指令构成了redis
事务处理的基础。
1、MULTI
用来组装一个事务;
2、EXEC
用来执行一个事务;
3、DISCARD
用来取消一个事务;
4、WATCH
用来监视一些key
,一旦这些key
在事务执行之前被改变,则取消事务的执行。
我们来看一个MULT
I和EXEC的例子:
redis> MULTI //标记事务开始
OK
redis> INCR user_id //多条命令按顺序入队
QUEUED
redis> INCR user_id
QUEUED
redis> INCR user_id
QUEUED
redis> PING
QUEUED
redis> EXEC //执行
1) (integer) 1
2) (integer) 2
3) (integer) 3
4) PONG
在上面的例子中,我们看到了QUEUED
的字样,这表示我们在用MULTI
组装事务时,每一个命令都会进入到内存队列中缓存起来,如果出现QUEUED
则表示我们这个命令成功插入了缓存队列,在将来执行EXEC
时,这些被QUEUED
的命令都会被组装成一个事务来执行。
对于事务的执行来说,如果redis
开启了AOF
持久化的话,那么一旦事务被成功执行,事务中的命令就会通过write
命令一次性写到磁盘中去,如果在向磁盘中写的过程中恰好出现断电、硬件故障等问题,那么就可能出现只有部分命令进行了AOF
持久化,这时AOF
文件就会出现不完整的情况,这时,我们可以使用redis-check-aof
工具来修复这一问题,这个工具会将AOF
文件中不完整的信息移除,确保AOF
文件完整可用。
有关事务,大家经常会遇到的是两类错误:
1.调用EXEC
之前的错误
2.调用EXEC
之后的错误
“调用EXEC
之前的错误”,有可能是由于语法有误导致的,也可能时由于内存不足导致的。只要出现某个命令无法成功写入缓冲队列的情况,redis
都会进行记录,在客户端调用EXEC
时,redis
会拒绝执行这一事务。(这是2.6.5
版本之后的策略。在2.6.5
之前的版本中,redis
会忽略那些入队失败的命令,只执行那些入队成功的命令)。我们来看一个这样的例子:
127.0.0.1:6379> multi
OK
127.0.0.1:6379> haha //一个明显错误的指令
(error) ERR unknown command 'haha'
127.0.0.1:6379> ping
QUEUED
127.0.0.1:6379> exec
//redis无情的拒绝了事务的执行,原因是“之前出现了错误”
(error) EXECABORT Transaction discarded because of previous errors.
而对于“调用EXEC
之后的错误”,redis
则采取了完全不同的策略,即redis
不会理睬这些错误,而是继续向下执行事务中的其他命令。这是因为,对于应用层面的错误,并不是redis
自身需要考虑和处理的问题,所以一个事务中如果某一条命令执行失败,并不会影响接下来的其他命令的执行。我们也来看一个例子:
127.0.0.1:6379> multi
OK
127.0.0.1:6379> set age 23
QUEUED
//age不是集合,所以如下是一条明显错误的指令
127.0.0.1:6379> sadd age 15
QUEUED
127.0.0.1:6379> set age 29
QUEUED
127.0.0.1:6379> exec //执行事务时,redis不会理睬第2条指令执行错误
1) OK
2) (error) WRONGTYPE Operation against a key holding the wrong kind of value
3) OK
127.0.0.1:6379> get age
"29" //可以看出第3条指令被成功执行了
好了,我们来说说最后一个指令“WATCH
”,这是一个很好用的指令,它可以帮我们实现类似于“乐观锁”的效果,即CAS(check and set)
。
WATCH
本身的作用是“监视key
是否被改动过”,而且支持同时监视多个key
,只要还没真正触发事务,WATCH
都会尽职尽责的监视,一旦发现某个key
被修改了,在执行EXEC
时就会返回nil
,表示事务无法触发。
127.0.0.1:6379> set age 23
OK
127.0.0.1:6379> watch age //开始监视age
OK
127.0.0.1:6379> set age 24 //在EXEC之前,age的值被修改了
OK
127.0.0.1:6379> multi
OK
127.0.0.1:6379> set age 25
QUEUED
127.0.0.1:6379> get age
QUEUED
127.0.0.1:6379> exec //触发EXEC
(nil) //事务无法被执行
EXEC
之前,入队的命令可能会出错。比如说,命令可能会产生语法错误(参数数量错误,参数名错误,等等),或者其他更严重的错误,比如内存不足(如果服务器使用 maxmemory
设置了最大内存限制的话)。EXEC
调用之后失败。举个例子,事务中的命令可能处理了错误类型的键,比如将列表命令用在了字符串键上面,诸如此类。对于发生在EXEC
执行之前的错误,客户端以前的做法是检查命令入队所得的返回值:如果命令入队时返回QUEUED
,那么入队成功;否则,就是入队失败。如果有命令在入队时失败,那么大部分客户端都会停止并取消这个事务。
不过,从
Redis 2.6.5
开始,服务器会对命令入队失败的情况进行记录,并在客户端调用EXEC
命令时,拒绝执行并自动放弃这个事务。在Redis 2.6.5
以前,Redis
只执行事务中那些入队成功的命令,而忽略那些入队失败的命令。 而新的处理方式则使得在流水线(pipeline
)中包含事务变得简单,因为发送事务和读取事务的回复都只需要和服务器进行一次通讯。
至于那些在 EXEC
命令执行之后所产生的错误, 并没有对它们进行特别处理: 即使事务中有某个/某些命令在执行时产生了错误, 事务中的其他命令仍然会继续执行。
redis
配置详解默认情况下,redis
并不是以daemon
形式来运行的。通过daemonize
配置项可以控制redis
的运行形式,如果改为yes
,那么redis
就会以daemon
形式运行:
daemonize no
当以daemon
形式运行时,redis
会生成一个pid
文件,默认会生成在/var/run/redis.pid
。当然,你可以通过pidfile
来指定pid
文件生成的位置,比如:
pidfile /path/to/redis.pid
默认情况下,redis
会响应本机所有可用网卡的连接请求。当然,redis
允许你通过bind
配置项来指定要绑定的IP,比如:
bind 192.168.1.2 10.8.4.2
redis
的默认服务端口是6379
,你可以通过port
配置项来修改。如果端口设置为0
的话,redis
便不会监听端口了。
port 6379
有些同学会问“如果redis
不监听端口,还怎么与外界通信呢”,其实redis
还支持通过unix socket
方式来接收请求。可以通过unixsocket
配置项来指定unix socket
文件的路径,并通过unixsocketperm
来指定文件的权限。
unixsocket /tmp/redis.sock
unixsocketperm 755
当一个redis-client
一直没有请求发向server
端,那么server
端有权主动关闭这个连接,可以通过timeout
来设置“空闲超时时限”,0
表示永不关闭。
timeout 0
TCP
连接保活策略,可以通过tcp-keepalive
配置项来进行设置,单位为秒,假如设置为60
秒,则server
端会每60
秒向连接空闲的客户端发起一次ACK
请求,以检查客户端是否已经挂掉,对于无响应的客户端则会关闭其连接。所以关闭一个连接最长需要120
秒的时间。如果设置为0
,则不会进行保活检测。
tcp-keepalive 0
redis
支持通过loglevel
配置项设置日志等级,共分四级,即debug、verbose、notice、warning
。
loglevel notice
redis
也支持通过logfile
配置项来设置日志文件的生成位置。如果设置为空字符串,则redis
会将日志输出到标准输出。假如你在daemon
情况下将日志设置为输出到标准输出,则日志会被写到/dev/null
中。
logfile ""
如果希望日志打印到syslog
中,也很容易,通过syslog-enabled
来控制。另外,syslog-ident
还可以让你指定syslog
里的日志标志,比如:
syslog-ident redis
而且还支持指定syslog
设备,值可以是USER
或LOCAL0-LOCAL7
。具体可以参考syslog
服务本身的用法。
syslog-facility local0
对于redis
来说,可以设置其数据库的总数量,假如你希望一个redis
包含16
个数据库,那么设置如下:
databases 16
这16
个数据库的编号将是0
到15
。默认的数据库是编号为0
的数据库。用户可以使用select
来选择相应的数据库。
redis
配置 – 快照快照,主要涉及的是redis
的RDB
持久化相关的配置,我们来一起看一看。
我们可以用如下的指令来让数据保存到磁盘上,即控制RDB
快照功能:
save
举例来说:
save 900 1 //表示每15分钟且至少有1个key改变,就触发一次持久化
save 300 10 //表示每5分钟且至少有10个key改变,就触发一次持久化
save 60 10000 //表示每60秒至少有10000个key改变,就触发一次持久化
如果你想禁用RDB
持久化的策略,只要不设置任何save
指令就可以,或者给save
传入一个空字符串参数也可以达到相同效果,就像这样:
save ""
如果用户开启了RDB
快照功能,那么在redis
持久化数据到磁盘时如果出现失败,默认情况下,redis
会停止接受所有的写请求。这样做的好处在于可以让用户很明确的知道内存中的数据和磁盘上的数据已经存在不一致了。如果redis
不顾这种不一致,一意孤行的继续接收写请求,就可能会引起一些灾难性的后果。
如果下一次RDB
持久化成功,redis
会自动恢复接受写请求。
当然,如果你不在乎这种数据不一致或者有其他的手段发现和控制这种不一致的话,你完全可以关闭这个功能,以便在快照写入失败时,也能确保redis
继续接受新的写请求。配置项如下:
stop-writes-on-bgsave-error yes
对于存储到磁盘中的快照,可以设置是否进行压缩存储。如果是的话,redis
会采用LZF
算法进行压缩。如果你不想消耗CPU
来进行压缩的话,可以设置为关闭此功能,但是存储在磁盘上的快照会比较大。
rdbcompression yes
在存储快照后,我们还可以让redis
使用CRC64
算法来进行数据校验,但是这样做会增加大约10%
的性能消耗,如果你希望获取到最大的性能提升,可以关闭此功能。
rdbchecksum yes
我们还可以设置快照文件的名称,默认是这样配置的:
dbfilename dump.rdb
最后,你还可以设置这个快照文件存放的路径。比如默认设置就是当前文件夹:
dir ./
redis
配置 – 复制redis
提供了主从同步功能。
通过slaveof
配置项可以控制某一个redis
作为另一个redis
的从服务器,通过指定IP
和端口来定位到主redis
的位置。一般情况下,我们会建议用户为从redis
设置一个不同频率的快照持久化的周期,或者为从redis
配置一个不同的服务端口等等。
slaveof
如果主redis
设置了验证密码的话(使用requirepass
来设置),则在从redis
的配置中要使用masterauth
来设置校验密码,否则的话,主redis
会拒绝从redis
的访问请求。
masterauth
当从redis
失去了与主redis
的连接,或者主从同步正在进行中时,redis
该如何处理外部发来的访问请求呢?这里,从redis
可以有两种选择:
第一种选择:如果slave-serve-stale-data
设置为yes
(默认),则从redis
仍会继续响应客户端的读写请求。
第二种选择:如果slave-serve-stale-data
设置为no
,则从redis
会对客户端的请求返回“SYNC with master in progress”
,当然也有例外,当客户端发来INFO
请求和SLAVEOF
请求,从redis
还是会进行处理。
你可以控制一个从redis
是否可以接受写请求。将数据直接写入从redis
,一般只适用于那些生命周期非常短的数据,因为在主从同步时,这些临时数据就会被清理掉。自从redis2.6
版本之后,默认从redis
为只读。
slave-read-only yes
只读的从redis
并不适合直接暴露给不可信的客户端。为了尽量降低风险,可以使用rename-command
指令来将一些可能有破坏力的命令重命名,避免外部直接调用。比如:
rename-command CONFIG b840fc02d524045429941cc15f59e41cb7be6c52
从redis
会周期性的向``redis发出PING
包。你可以通过repl_ping_slave_period
指令来控制其周期。默认是10
秒。
repl-ping-slave-period 10
在主从同步时,可能在这些情况下会有超时发生:
1.以从redis
的角度来看,当有大规模IO
传输时。
2.以从redis
的角度来看,当数据传输或PING
时,主redis
超时
3.以主redis
的角度来看,在回复从redis
的PING
时,从redis
超时
用户可以设置上述超时的时限,不过要确保这个时限比repl-ping-slave-period
的值要大,否则每次主redis
都会认为从redis
超时。
repl-timeout 60
我们可以控制在主从同步时是否禁用TCP_NODELAY
。如果开启TCP_NODELAY
,那么主redis
会使用更少的TCP
包和更少的带宽来向从redis
传输数据。但是这可能会增加一些同步的延迟,大概会达到40
毫秒左右。如果你关闭了TCP_NODELAY
,那么数据同步的延迟时间会降低,但是会消耗更多的带宽。
repl-disable-tcp-nodelay no
我们还可以设置同步队列长度。队列长度(backlog
)是主redis
中的一个缓冲区,在与从redis
断开连接期间,主redis
会用这个缓冲区来缓存应该发给从redis
的数据。这样的话,当从redis
重新连接上之后,就不必重新全量同步数据,只需要同步这部分增量数据即可。
repl-backlog-size 1mb
如果主redis
等了一段时间之后,还是无法连接到从redis
,那么缓冲队列中的数据将被清理掉。我们可以设置主redis
要等待的时间长度。如果设置为0
,则表示永远不清理。默认是1个小时。
repl-backlog-ttl 3600
我们可以给众多的从redis
设置优先级,在主redis
持续工作不正常的情况,优先级高的从redis
将会升级为主redis
。而编号越小,优先级越高。比如一个主redis
有三个从redis
,优先级编号分别为10、100、25
,那么编号为10
的从redis
将会被首先选中升级为主redis
。当优先级被设置为0
时,这个从redis
将永远也不会被选中。默认的优先级为100
。
slave-priority 100
假如主redis
发现有超过M
个从redis
的连接延时大于N
秒,那么主redis
就停止接受外来的写请求。这是因为从redis
一般会每秒钟都向主redis
发出PING
,而主redis
会记录每一个从redis
最近一次发来PING
的时间点,所以主redis
能够了解每一个从redis
的运行情况。
min-slaves-to-write 3
min-slaves-max-lag 10
上面这个例子表示,假如有大于等于3
个从redis
的连接延迟大于10
秒,那么主redis
就不再接受外部的写请求。上述两个配置中有一个被置为0
,则这个特性将被关闭。默认情况下min-slaves-to-write
为0
,而min-slaves-max-lag
为10
。
redis
配置 – 安全我们可以要求redis
客户端在向redis-server
发送请求之前,先进行密码验证。当你的redis-server
处于一个不太可信的网络环境中时,相信你会用上这个功能。由于redis
性能非常高,所以每秒钟可以完成多达15
万次的密码尝试,所以你最好设置一个足够复杂的密码,否则很容易被黑客破解。
requirepass zhimakaimen
这里我们通过requirepass
将密码设置成“芝麻开门”。
redis
允许我们对redis
指令进行更名,比如将一些比较危险的命令改个名字,避免被误执行。比如可以把CONFIG
命令改成一个很复杂的名字,这样可以避免外部的调用,同时还可以满足内部调用的需要:
rename-command CONFIG b840fc02d524045429941cc15f59e41cb7be6c89
我们甚至可以禁用掉CONFIG
命令,那就是把CONFIG
的名字改成一个空字符串:
rename-command CONFIG ""
redis
配置 -限制我们可以设置redis
同时可以与多少个客户端进行连接。默认情况下为10000
个客户端。当你无法设置进程文件句柄限制时,redis
会设置为当前的文件句柄限制值减去32
,因为redis
会为自身内部处理逻辑留一些句柄出来。
如果达到了此限制,redis
则会拒绝新的连接请求,并且向这些连接请求方发出“max number of clients reached
”以作回应。
maxclients 10000
我们甚至可以设置redis
可以使用的内存量。一旦到达内存使用上限,redis
将会试图移除内部数据,移除规则可以通过maxmemory-policy
来指定。
如果redis
无法根据移除规则来移除内存中的数据,或者我们设置了“不允许移除”,那么redis
则会针对那些需要申请内存的指令返回错误信息,比如SET、LPUSH
等。但是对于无内存申请的指令,仍然会正常响应,比如GET
等。
maxmemory
需要注意的一点是,如果你的redis
是主redis(
说明你的redis有从redis),那么在设置内存使用上限时,需要在系统中留出一些内存空间给同步队列缓存,只有在你设置的是“不移除”的情况下,才不用考虑这个因素。
对于内存移除规则来说,redis
提供了多达6
种的移除规则。他们是:
1.volatile-lru
:使用LRU
算法移除过期集合中的key
2.allkeys-lru
:使用LRU
算法移除key
3.volatile-random
:在过期集合中移除随机的key
4.allkeys-random
:移除随机的key
5.volatile-ttl
:移除那些TTL
值最小的key
,即那些最近才过期的key
6.noeviction
:不进行移除。针对写操作,只是返回错误信息
无论使用上述哪一种移除规则,如果没有合适的key
可以移除的话,redis
都会针对写请求返回错误信息。
maxmemory-policy volatile-lru
LRU
算法和最小TTL
算法都并非是精确的算法,而是估算值。所以你可以设置样本的大小。假如redis
默认会检查三个key
并选择其中LRU
的那个,那么你可以改变这个key
样本的数量。
maxmemory-samples 3
最后,我们补充一个信息,那就是到目前版本(2.8.4
)为止,redis
支持的写指令包括了如下这些:
set setnx setex append
incr decr rpush lpush rpushx lpushx linsert lset rpoplpush sadd
sinter sinterstore sunion sunionstore sdiff sdiffstore zadd zincrby
zunionstore zinterstore hset hsetnx hmset hincrby incrby decrby
getset mset msetnx exec sort
redis
配置 – 追加模式默认情况下,redis
会异步的将数据持久化到磁盘。这种模式在大部分应用程序中已被验证是很有效的,但是在一些问题发生时,比如断电,则这种机制可能会导致数分钟的写请求丢失。
如博文上半部分中介绍的,追加文件(Append Only File
)是一种更好的保持数据一致性的方式。即使当服务器断电时,也仅会有1
秒钟的写请求丢失,当redis
进程出现问题且操作系统运行正常时,甚至只会丢失一条写请求。
我们建议大家,AOF
机制和RDB
机制可以同时使用,不会有任何冲突。对于如何保持数据一致性的讨论,请参见本文。
appendonly no
我们还可以设置aof文件的名称:
appendfilename "appendonly.aof"
fsync()
调用,用来告诉操作系统立即将缓存的指令写入磁盘。一些操作系统会“立即”进行,而另外一些操作系统则会“尽快”进行。
redis
支持三种不同的模式:
1、no
:不调用fsync()
。而是让操作系统自行决定sync
的时间。这种模式下,redis
的性能会最快。
2、always
:在每次写请求后都调用fsync()
。这种模式下,redis会相对较慢,但数据最安全。
3、everysec
:每秒钟调用一次fsync()
。这是性能和安全的折衷。
默认情况下为everysec
。
appendfsync everysec
当fsync
方式设置为always
或everysec
时,如果后台持久化进程需要执行一个很大的磁盘IO
操作,那么redis
可能会在fsync()
调用时卡住。目前尚未修复这个问题,这是因为即使我们在另一个新的线程中去执行fsync()
,也会阻塞住同步写调用。
为了缓解这个问题,我们可以使用下面的配置项,这样的话,当BGSAVE
或BGWRITEAOF
运行时,fsync()
在主进程中的调用会被阻止。这意味着当另一路进程正在对AOF
文件进行重构时,redis
的持久化功能就失效了,就好像我们设置了“appendsync none
”一样。如果你的redis
有时延问题,那么请将下面的选项设置为yes
。否则请保持no
,因为这是保证数据完整性的最安全的选择。
no-appendfsync-on-rewrite no
我们允许redis
自动重写aof
。当aof
增长到一定规模时,redis
会隐式调用BGREWRITEAOF
来重写log
文件,以缩减文件体积。
redis
是这样工作的:redis
会记录上次重写时的aof
大小。假如redis
自启动至今还没有进行过重写,那么启动时aof
文件的大小会被作为基准值。这个基准值会和当前的aof
大小进行比较。如果当前aof
大小超出所设置的增长比例,则会触发重写。另外,你还需要设置一个最小大小,是为了防止在aof
很小时就触发重写。
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
如果设置auto-aof-rewrite-percentage
为0
,则会关闭此重写功能。
redis
配置 – LUA脚本lua
脚本的最大运行时间是需要被严格限制的,要注意单位是毫秒:
lua-time-limit 5000
如果此值设置为0
或负数,则既不会有报错也不会有时间限制。
redis
配置 – 慢日志redis
慢日志是指一个系统进行日志查询超过了指定的时长。这个时长不包括IO
操作,比如与客户端的交互、发送响应内容等,而仅包括实际执行查询命令的时间。
针对慢日志,你可以设置两个参数,一个是执行时长,单位是微秒,另一个是慢日志的长度。当一个新的命令被写入日志时,最老的一条会从命令日志队列中被移除。
单位是微秒,即1000000
表示一秒。负数则会禁用慢日志功能,而0
则表示强制记录每一个命令。
slowlog-log-slower-than 10000
慢日志最大长度,可以随便填写数值,没有上限,但要注意它会消耗内存。你可以使用SLOWLOG RESET
来重设这个值。
slowlog-max-len 128
redis
配置 – 高级配置有关哈希数据结构的一些配置项:
hash-max-ziplist-entries 512
hash-max-ziplist-value 64
有关列表数据结构的一些配置项:
list-max-ziplist-entries 512
list-max-ziplist-value 64
有关集合数据结构的配置项:
set-max-intset-entries 512
有关有序集合数据结构的配置项:
zset-max-ziplist-entries 128
zset-max-ziplist-value 64
关于是否需要再哈希的配置项:
activerehashing yes
关于客户端输出缓冲的控制项:
client-output-buffer-limit normal 0 0 0
client-output-buffer-limit slave 256mb 64mb 60
client-output-buffer-limit pubsub 32mb 8mb 60
有关频率的配置项:
hz 10
有关重写aof的配置项:
aof-rewrite-incremental-fsync yes
缓存穿透是指查询一个根本不存在的数据,缓存层和持久层都不会命中。在日常工作中出于容错的考虑,如果从持久层查不到数据则不写入缓存层,缓存穿透将导致不存在的数据每次请求都要到持久层去查询,失去了缓存保护后端持久的意义
缓存穿透示意图:
缓存穿透问题可能会使后端存储负载加大,由于很多后端持久层不具备高并发性,甚至可能造成后端存储宕机。通常可以在程序中统计总调用数、缓存层命中数、如果同一个Key
的缓存命中率很低,可能就是出现了缓存穿透问题。
造成缓存穿透的基本原因有两个。第一,自身业务代码或者数据出现问题(例如:set
和get
的key
不一致),第二,一些恶意攻击、爬虫等造成大量空命中(爬取线上商城商品数据,超大循环递增商品的ID
)
解决方案:
1、缓存空对象
缓存空对象:是指在持久层没有命中的情况下,对key
进行set (key,null)
缓存空对象会有两个问题:第一,value
为null
不代表不占用内存空间,空值做了缓存,意味着缓存层中存了更多的键,需要更多的内存空间,比较有效的方法是针对这类数据设置一个较短的过期时间,让其自动剔除。第二,缓存层和存储层的数据会有一段时间窗口的不一致,可能会对业务有一定影响。例如过期时间设置为5
分钟,如果此时存储层添加了这个数据,那此段时间就会出现缓存层和存储层数据的不一致,此时可以利用消息系统或者其他方式清除掉缓存层中的空对象
2、布隆过滤器拦截
在访问缓存层和存储层之前,将存在的key
用布隆过滤器提前保存起来,做第一层拦截,当收到一个对key
请求时先用布隆过滤器验证是key
否存在,如果存在在进入缓存层、存储层。可以使用bitmap
做布隆过滤器。这种方法适用于数据命中不高、数据相对固定、实时性低的应用场景,代码维护较为复杂,但是缓存空间占用少。
布隆过滤器实际上是一个很长的二进制向量和一系列随机映射函数。布隆过滤器可以用于检索一个元素是否在一个集合中。它的优点是空间效率和查询时间都远远超过一般的算法,缺点是有一定的误识别率和删除困难。
算法描述:
BloomFilter
是一个长度为m
的位数组,每一位都置为0
。x
时,x
使用k
个hash
函数得到k
个hash
值,对m
取余,对应的bit
位设置为1
。y
是否属于这个集合,对y
使用k
个哈希函数得到k
个哈希值,对m
取余,所有对应的位置都是1
,则认为y
属于该集合(哈希冲突,可能存在误判),否则就认为y
不属于该集合。可以通过增加哈希函数和增加二进制位数组的长度来降低错报率。key
映射数组上多位,一位会被多个key
使用,也就是多对多的关系。如果一个key
映射的所有位值为1
,就判断为存在。但是可能会出现key1
和 key2
同时映射到下标为100
的位,key1
不存在,key2
存在,这种情况下会发生错误率由于缓存层承载着大量请求,有效地保护了存储层,但是如果缓存层由于某些原因不可用(宕机)或者大量缓存由于超时时间相同在同一时间段失效(大批key
失效/热点数据失效),大量请求直接到达存储层,存储层压力过大导致系统雪崩。
解决方案:
sentinel
或cluster
实现。redis
作为二级缓存,不同级别的缓存设置的超时时间不同,即使某级缓存过期了,也有其他级别缓存兜底key
的过期时间不同(例如:定时任务新建大批量key
,设置的过期时间相同)系统中存在以下两个问题时需要引起注意:
key
是一个热点key
(例如一个秒杀活动),并发量非常大。SQL
、多次IO
、多个依赖等。在缓存失效的瞬间,有大量线程来重建缓存,造成后端负载加大,甚至可能会让应用崩溃。
解决方案:
1、分布式互斥锁
只允许一个线程重建缓存,其他线程等待重建缓存的线程执行完,重新从缓存获取数据即可。set(key,value,timeout)
2、永不过期
从缓存层面来看,确实没有设置过期时间,所以不会出现热点key
过期后产生的问题,也就是“物理”不过期。
从功能层面来看,为每个value
设置一个逻辑过期时间,当发现超过逻辑过期时间后,会使用单独的线程去更新缓村
2种方案对比:
key
失效后进行了大量的计算)时间过长,也可能会存在死锁和线程池阻塞的风险,高并发情景下吞吐量会大大降低!但是这种方法能够较好地降低后端存储负载,并在一致性上做得比较好。我们在前面Spring boot里面已经说到了关于和redis整合的文章,有需要的同学可以看一下:Spring Boot集成redis