官网地址:https://redis.io/
Redis是一个键值对存储数据库,属于一种NoSQL,其数据存储在内存里,读写速度非常快,据说是可以达到10w并发。支持数据持久化。它属于单线程服务,但这不影响它的高并发特性。
类似键值对数据库还有Memcached,但Redis比Memcached支持更多类型的数据。Mecached只支持string类型的数据,但Redis除了支持string外,还支持hash,set,list,zset(有序集合)
安装:
[root@linux2019_01 ~]# cd /usr/local/src/
[root@linux2019_01 src]# wget http://download.redis.io/releases/redis-5.0.4.tar.gz
[root@linux2019_01 src]# tar zxvf redis-5.0.4.tar.gz
[root@linux2019_01 src]# cd redis-5.0.4
[root@linux2019_01 redis-5.0.4]# make
[root@linux2019_01 redis-5.0.4]# make install
[root@linux2019_01 redis-5.0.4]# echo $?
0
[root@linux2019_01 redis-5.0.4]# cp redis.conf /etc/ #拷贝启动脚本
[root@linux2019_01 redis-5.0.4]# vi /etc/redis.conf
daemonize yes
[root@linux2019_01 redis-5.0.4]# redis-server /etc/redis.conf
23888:C 28 Mar 2019 17:12:34.478 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo
23888:C 28 Mar 2019 17:12:34.478 # Redis version=5.0.4, bits=64, commit=00000000, modified=0, pid=23888, just started
23888:C 28 Mar 2019 17:12:34.478 # Configuration loaded
[root@linux2019_01 redis-5.0.4]# ps aux |grep redis
root 23889 0.1 0.3 153884 7632 ? Ssl 17:12 0:00 redis-server 127.0.0.1:6379
root 23905 0.0 0.0 112724 988 pts/1 S+ 17:12 0:00 grep --color=auto redis
为了方便服务统一管理,采用systemcctl方式管理redis服务
CentOS7下编写服务管理脚本
[root@linux2019_01 redis-5.0.4]# vi /usr/lib/systemd/system/redis.service
[Unit]
Description=Redis
After=network.target
[Service]
Type=forking
PIDFile=/var/run/redis_6379.pid
ExecStart=/usr/local/bin/redis-server /etc/redis.conf
ExecReload=/bin/kill -s HUP $MAINPID
ExecStop=/bin/kill -s QUIT $MAINPID
PrivateTmp=true
[Install]
WantedBy=multi-user.target
[root@linux2019_01 redis-5.0.4]# ln -s /usr/lib/systemd/system/redis.service /etc/systemd/system/multi-user.target.wants/redis.service
[root@linux2019_01 redis-5.0.4]# systemctl daemon-reload
[root@linux2019_01 redis-5.0.4]# systemctl start redis
[root@linux2019_01 redis-5.0.4]# redis-cli #登录redis
127.0.0.1:6379> keys *
(empty list or set)
redis的五种数据类型
127.0.0.1:6379> mset key1 "linux2019" key2 'abc' key3 123
OK
127.0.0.1:6379> mget key1 key2 key3
1) "linux2019"
2) "abc"
3) "123"
127.0.0.1:6379> set key4 iamok
OK
127.0.0.1:6379> get key4
"iamok"
127.0.0.1:6379> lpush list1 'linux2019'
(integer) 1
127.0.0.1:6379> lpush list1 'abcabc'
(integer) 2
127.0.0.1:6379> lpush list1 '123123'
(integer) 3
127.0.0.1:6379> lrange list1 0 -1
1) "123123"
2) "abcabc"
3) "linux2019"
127.0.0.1:6379> lpop list1 #取出最后插入的元素
"123123"
127.0.0.1:6379> rpop list1 #取出最开始插入的元素
"linux2019"
127.0.0.1:6379> lrange list1 0 -1 #读取整个list(-1表示最后一个)
1) "abcabc"
127.0.0.1:6379> sadd set1 a b c d
(integer) 4
127.0.0.1:6379> sadd set 1 b c 2
(integer) 4
127.0.0.1:6379> smembers set #读取所有元素
1) "c"
2) "b"
3) "2"
4) "1"
127.0.0.1:6379> srem set 2 #删除元素
(integer) 1
127.0.0.1:6379> smembers set
1) "c"
2) "b"
3) "1"
127.0.0.1:6379> sinter set1 set #交集
1) "c"
2) "b"
127.0.0.1:6379> sunion set1 set #并集
1) "a"
2) "b"
3) "d"
4) "c"
5) "1"
127.0.0.1:6379> sdiff set1 set #差集,差集跟集合的前后顺序有关,以前一个集合为基准
1) "a"
2) "d"
127.0.0.1:6379> sdiff set set1
1) "1"
127.0.0.1:6379> zadd set4 10 lilnux2019
(integer) 1
127.0.0.1:6379> zadd set4 15 abc123
(integer) 1
127.0.0.1:6379> zadd set4 30 iamok
(integer) 1
127.0.0.1:6379> zrange set4 0 -1
1) "lilnux2019"
2) "abc123"
3) "iamok"
127.0.0.1:6379> zadd set4 9 80wfe8080a9
(integer) 1
127.0.0.1:6379> zrange set4 0 -1
1) "80wfe8080a9"
2) "lilnux2019"
3) "abc123"
4) "iamok"
127.0.0.1:6379> zrevrange set4 0 -1 #倒序
1) "iamok"
2) "abc123"
3) "lilnux2019"
4) "80wfe8080a9"
127.0.0.1:6379> hset hash1 name guoguo
(integer) 1
127.0.0.1:6379> hget hash1 name
"guoguo"
127.0.0.1:6379> hset hash1 age 30
(integer) 1
127.0.0.1:6379> hget hash1 age
"30"
127.0.0.1:6379> hgetall hash1
1) "name"
2) "guoguo"
3) "age"
4) "30"
redis的常用操作
keys * //取出所有key
keys my* //模糊匹配
exists name //有name键 返回1 ,否则返回0;
del key1 // 删除一个key //成功返回1 ,否则返回0;
EXPIRE key1 100 //设置key1 100s后过期
ttl key // 查看键 还有多长时间过期,单位是s,当 key 不存在时,返回 -2 。 当 key 存在但没有设置剩余生存时间时,返回 -1 。 否则,返回 key 的剩余生存时间。
select 0 //代表选择当前数据库,默认进入0 数据库
move age 1 // 把age 移动到1 数据库
persist key1 //取消key1的过期时间
randomkey //随机返回一个key
rename oldname newname //重命名key
type key1 //返回键的类型
dbsize //返回当前数据库中key的数目
info //返回redis数据库状态信息
flushdb //清空当前数据库中所有的键
flushall //清空所有数据库中的所有的key
bgsave //保存数据到 rdb文件中,在后台运行
save //作用同上,但是在前台运行
config get * //获取所有配置参数
config get dir //获取配置参数
config set dir //更改配置参数
数据恢复: 首先定义或者确定dir目录和dbfilename,然后把备份的rdb文件放到dir目录下面,重启redis服务即可恢复数据
redis.conf配置文件详解
bind 127.0.0.1
#指定绑定IP,如果想绑定多个IP,可以一行写多个IP,空格分开 bind ip1 ip2
protected-mode yes
#设置为yes,则开启了安全模式,当redis.conf中没有定义bind的ip时,也就是说redis将会绑定全网IP,并且也没有设置访问密码,这两个条件满足时,当远程的机器访问redis时,就会被限制了。建议开启。
port 6379
#定义监听的端口
tcp-backlog 511
#关于backlog的理解,需要先搞清楚TCP三次握手。这个tcp-backlog定义了一个队列的长度。这个队列指的是,TCP三次握手中最后一次握手完成后的那个状态的连接(下图的accept queue)。该参数设定的值不能大于内核的somaxconn的值,要想设置的非常高,那么首先要将内核参数somaxconn的值提升。 somaxconn,定义了系统中每一个端口最大的监听队列的长度,这是个全局的参数,默认值为128. 限制了每个端口接收新tcp连接侦听队列的大小。对于一个经常处理新连接的高负载 web服务环境来说,默认的128太小了。 大多数环境这个值建议增加到2048或者更多。调整内核参数: echo "net.core.somaxconn = 2048" >> /etc/sysctl.conf; sysctl -p
timeout 0
#当客户端处于空闲状态时,redis服务端会主动关闭连接,这个参数用来定义客户端空闲多少秒,服务端关闭连接,如果是0则不限制。
tcp-keepalive 300
#TCP连接保活策略,可以通过tcp-keepalive配置项来进行设置,单位为秒,假如设置为60秒,则server端会每60秒向连接空闲的客户端发起一次ACK请求, 以检查客户端是否已经挂掉,对于无响应的客户端则会关闭其连接。所以关闭一个连接最长需要120秒的时间。如果设置为0,则不会进行保活检测。
daemonize yes
#启动的时候后台启动
supervised no
#是否通过upstart或systemd管理守护进程。默认no没有服务监控,其它选项有upstart, systemd, auto
pidfile /var/run/redis_6379.pid
#pid文件路径
loglevel notice
#日志级别
logfile ""
#日志路径和名字,默认为空,当不以后台启动时,日志直接输出到屏幕,当后台启动时,日志输出到/dev/null
databases 16
#定义redis的数据库个数,默认为16个(0-15),可以使用select id,来选择对应的数据库。
always-show-logo yes
#redis启动时,会打印ASCII艺术logo
save
#定义数据持久化的策略,这个持久化指的是RDB格式的数据。save 900 1指的是900秒内至少有一个key发生改变,满足这个条件就会触发持久化。 要想关闭RDB格式的持久化,需要改为这样save ""
stop-writes-on-bgsave-error yes
#当save过程中出现失败的情况时,或者有某些错误时,总之导致了内存中的数据和磁盘中的数据不一致了。该参数定义此时是否继续进行save的操作。
rdbcompression yes
#是否在save时将string对象进行压缩,压缩算法为LFZ。开启该功能会额外消耗CPU资源。
rdbchecksum yes
#当save完成后,是否使用CRC64算法校验rdb文件。
dbfilename dump.rdb
#save的rdb文件名字,路径在dir定义的目录下
dir ./
#定义rdb文件路径
replicaof
+------------------+ +---------------+
| Master | ---> | Replica |
| (receive writes) | | (exact copy) |
+------------------+ +---------------+
#定义主的ip和端口,5.0版本以前使用slaveof,该参数是在从上定义的。
masterauth
#定义主的密码,该参数是在从上定义的。该密码其实就是在主上由requirepass参数定义的密码。
replica-serve-stale-data yes
#当从Redis失去了与主Redis的连接,或者主从同步正在进行中时,Redis该如何处理外部发来的访问请求呢?这里,从Redis可以有两种选择:
1. replica-serve-stale-data yes,即使主从断了,从依然响应客户端的请求。
2. replica-serve-stale-data no,主从断开了,则从会提示客户端"SYNC with master in progress",但有些指令还可以使用 INFO, replicaOF, AUTH, PING, SHUTDOWN, REPLCONF, ROLE, CONFIG,SUBSCRIBE, UNSUBSCRIBE, PSUBSCRIBE, PUNSUBSCRIBE, PUBLISH, PUBSUB, COMMAND, POST, HOST: and LATENCY
replica-read-only yes
#定义从是否只读
repl-diskless-sync no
#定义主从同步数据的策略,它有两种策略,一个是磁盘形式,一个是socket(就是这个diskless)形式。 磁盘形式,就是先将数据写到rdb文件里,然后传输rdb文件到从上。 socket形式,就是直接通过网络传输变更的数据到从上的rdb文件里。 repl-diskless-sync no,表示使用磁盘的形式。
repl-diskless-sync-delay 5
#如果使用了通过socket的形式传输数据,则需要考虑一个主下面有多个从的情况,因为一旦基于Diskless的复制传送开始, 主就无法顾及新的从的到来。所以,就有了这个延迟的设置,比如延迟5秒,这样在主从传输数据之前,所有的从都被识别了, 这样主就可以多开几个线程来同时给所有的从进行数据传输了。
repl-disable-tcp-nodelay no
#是否关闭tcp_nodelay功能。 关于tcp_nodelay有个nagle算法,假如需要频繁的发送一些小包数据,比如说1个字节,以IPv4为例的话, 则每个包都要附带40字节的头,也就是说,总计41个字节的数据里,其中只有1个字节是我们需要的数据。为了解决这个问题,出现了Nagle算法。 它规定:如果包的大小满足MSS,那么可以立即发送,否则数据会被放到缓冲区,等到已经发送的包被确认了之后才能继续发送。 通过这样的规定,可以降低网络里小包的数量,从而提升网络性能。
该参数设置为no,即使用tcp_nodelay,数据传输到salve的延迟将会减少但要使用更多的带宽。反之,不使用tcp_nodelay,这样Redis主将使用更少的TCP包和带宽来向slaves发送数据。 但是这将使数据传输到slave上有延迟,Linux内核的默认配置会达到40毫秒。
repl-backlog-size 1mb
#首先解释一下,这里的backlog是主上的一个内存缓冲区,它存储的数据是当主和从断开连接时,主无法将数据传给从了,这时候主先将更新的数据 暂时存放在缓存去里。如果主从再次连接时,就不需要重新传输所有数据,而是只需要传输缓冲区的这一部分即可。这个参数用来定义该缓冲区的大小。
repl-backlog-ttl 3600
#如果主Redis等了一段时间之后,还是无法连接到从Redis,那么缓冲队列中的数据将被清理掉。我们可以设置主Redis要等待的时间长度。 如果设置为0,则表示永远不清理。默认是1个小时。
replica-priority 100
#我们可以给众多的从Redis设置优先级,在主Redis持续工作不正常的情况,优先级高的从Redis将会升级为主Redis。而编号越小,优先级越高。 比如一个主Redis有三个从Redis,优先级编号分别为10、100、25,那么编号为10的从Redis将会被首先选中升级为主Redis。 当优先级被设置为0时,这个从Redis将永远也不会被选中。默认的优先级为100。
min-replicas-to-write 3 /min-replicas-max-lag 10
#假如主Redis发现有超过M个从Redis的连接延时大于N秒,那么主Redis就停止接受外来的写请求。这是因为从Redis一般会每秒钟都向主Redis发出PING, 而主Redis会记录每一个从Redis最近一次发来PING的时间点,所以主Redis能够了解每一个从Redis的运行情况。
min-replicas-to-write 3 /min-replicas-max-lag 10表示,假如有大于等于3个从Redis的连接延迟大于10秒,那么主Redis就不再接受外部的写请求。 上述两个配置中有一个被置为0,则这个特性将被关闭。默认情况下min-slaves-to-write为0,而min-slaves-max-lag为10。
requirepass foobared
#设置登录redis的密码
rename-command CONFIG b840fc02d524045429941cc15f59e41cb7be6c52
#将一些关键指令修改名字,比如将CONFIG命令改为b840fc02d524045429941cc15f59e41cb7be6c52,也可以直接禁用CONFIG指令 rename-command CONFIG ""
maxclients 10000
#允许最大客户端数
appendonly no
#默认情况下,Redis会异步的将数据持久化到磁盘(RDB)。这种模式在大部分应用程序中已被验证是很有效的,但是在一些问题发生时, 比如断电,则这种机制可能会导致数分钟的写请求丢失。如上半部分中介绍的,AOF是一种更好的保持数据一致性的方式。 即使当服务器断电时,也仅会有1秒钟的写请求丢失,当Redis进程出现问题且操作系统运行正常时,甚至只会丢失一条写请求。官方建议,AOF机制和RDB机制可以同时使用,不会有任何冲突。
appendfilename "appendonly.aof"
#定义aof文件名字
appendfsync everysec
#使用AOF机制做持久化时,调用fsync()函数有三个模式:
(1)no:不调用fsync()。而是让操作系统自行决定sync的时间。这种模式下,Redis的性能会最快。
(2)always:在每次写请求后都调用fsync()。这种模式下,Redis会相对较慢,但数据最安全。
(3)everysec:每秒钟调用一次fsync()。这是性能和安全的折衷。
默认情况下为everysec。
no-appendfsync-on-rewrite no
#当fsync方式设置为always或everysec时,如果后台持久化进程需要执行一个很大的磁盘IO操作,那么Redis可能会在fsync()调用时卡住。 目前尚未修复这个问题,这是因为即使我们在另一个新的线程中去执行fsync(),也会阻塞住同步写调用。
为了缓解这个问题,我们可以使用该配置项,这样的话,当BGSAVE或BGWRITEAOF运行时,fsync()在主进程中的调用会被阻止。这意味着当另一路进程正在对AOF文件进行重构时,Redis的持久化功能就失效了,就好像我们设置了"appendsync no"一样。如果Redis有时延问题,那么可以将该选项设置为yes。否则请保持no,因为这是保证数据完整性的最安全的选择。
auto-aof-rewrite-percentage 100/auto-aof-rewrite-min-size 64mb
#我们允许Redis自动重写aof。当aof增长到一定规模时,Redis会隐式调用BGREWRITEAOF来重写log文件,以缩减文件体积。
Redis是这样工作的:Redis会记录上次重写时的aof大小。假如Redis自启动至今还没有进行过重写,那么启动时aof文件的大小会被作为基准值。 这个基准值会和当前的aof大小进行比较。如果当前aof大小超出所设置的增长比例,则会触发重写。另外还需要设置一个最小大小,是为了防止在aof很小时就触发重写。如果设置auto-aof-rewrite-percentage为0,则会关闭此重写功能。
aof-load-truncated yes
#由于某种原因(aof文件损坏)有可能导致利用aof文件恢复redis数据时发生异常,该参数决定redis服务接下来的行为。
如果设置为yes,则aof文件会被加载(但数据一定不全),并且会记录日志说明情况。如果设置为no,则redis服务根本就启动不起来。
aof-use-rdb-preamble yes
#为了让用户能够同时拥有RDB和AOF两种持久化的优点,从Redis 4.0版本开始,就推出了一个能够“鱼和熊掌兼得”的持久化方案 —— RDB-AOF 混合持久化: 这种持久化能够通过 AOF 重写操作创建出一个同时包含RDB数据和AOF数据的AOF文件, 其中RDB数据位于AOF文件的开头, 它们储存了服务器开始执行重写操作时的数据库状态,至于那些在重写操作执行之后执行的Redis命令,则会继续以AOF格式追加到AOF文件的末尾,也即是RDB数据之后。
slowlog-log-slower-than 10000
#Redis也有跟MySQL类似的慢查询日志,该参数定义一个查询执行时间超过10000微秒则会记录日志。其中1秒=1000000微秒。
slowlog-max-len 128
#该参数定义慢查询日志最大的条数。其实,Redis的slow log也是保存在内存中,也是一种k/v形态的数据。
slowlog get #列出所有的慢查询日志
slowlog get 2 #只列出2条
slowlog len #查看慢查询日志条数
Redis使用:php中使用redis - 存储session
通过php-fpm的pecl源安装redis-php:
http://pecl.php.net
[root@linux2019_01 ~]# /usr/local/php-fpm/bin/pecl install redis
[root@linux2019_01 ~]# vim /usr/local/php-fpm/etc/php.ini
extension = redis.so #添加redis配置模块
报错:ERROR: `phpize’ failed
解决:install m4 autoconf
通过源码包安装reids-pho
[root@linux2019_01 ~]# cd /usr/local/src/
[root@linux2019_01 src]# wget http://pecl.php.net/get/redis-4.3.0.tgz
[root@linux2019_01 src]# tar zxvf redis-4.3.0.tgz
[root@linux2019_01 src]# cd redis-4.3.0
[root@linux2019_01 redis-4.3.0]# /usr/local/php-fpm/bin/phpize
[root@linux2019_01 redis-4.3.0]# ./configure --with-php-configure=/usr/local/php-fpm/bin/php-config
[root@linux2019_01 redis-4.3.0]# ./configure --with-php-configure=/usr/local/php-fpm/bin/php-config ^C
[root@linux2019_01 redis-4.3.0]# echo $?
0
[root@linux2019_01 redis-4.3.0]# ./configure --with-php-config=/usr/local/php-fpm/bin/php-config
[root@linux2019_01 ~]# make && make install
[root@linux2019_01 ~]# vim /usr/local/php-fpm/etc/php.ini
extension = redis.so #添加redis配置模块
配置php中使用redis - 存储session
[root@linux2019_01 ~]# vim /usr/local/php-fpm/etc/php.ini
;session.save_handler = files #默认存储在file中,注释掉
session.save_handler = "redis"
session.save_path = "tcp://127.0.0.1:6379"
[root@linux2019_01 ~]# /usr/local/php-fpm/bin/php -i |grep session #过滤查看session的redis配置
其他情况
或者apache虚拟主机配置文件中也可以这样配置:
php_value session.save_handler "redis"
php_value session.save_path "tcp://127.0.0.1:6379"
或者php-fpm配置文件对应的pool中增加:
php_value[session.save_handler] = redis
php_value[session.save_path] = "tcp://127.0.0.1:6379"
测试:
[root@linux2019_01 ~]# wget http://study.lishiming.net/.mem_se.txt
[root@linux2019_01 ~]# mv .mem_se.txt session.txt
[root@linux2019_01 ~]# ll
总用量 3816
-rw-------. 1 root root 1391 1月 21 18:25 anaconda-ks.cfg
drwxr-xr-x 6 root root 78 1月 25 15:57 DiscuzX
-rw-r--r-- 1 root root 0 3月 19 22:27 duan.txt
drwxr-xr-x 4 root root 4096 3月 4 15:02 linux2019
-rw-r--r-- 1 root root 237 10月 1 2015 session.txt
drwxr-xr-x 5 root root 300 3月 19 22:27 shell
-rw-r--r-- 1 root root 3893224 3月 2 23:34 zabbix.sql
[root@linux2019_01 ~]# /usr/local/php-fpm/bin/php session.txt #或者把session文件放到论坛路径下,通过网页访问这个文件,同样可以存储session(改方式本地验证不生效待解决);
1554277648
1554277648
p5msv9h4i9fad748d35f2chdcu
[root@linux2019_01 ~]# /usr/local/php-fpm/bin/php session.txt
1554277650
1554277650
j7bcjbhgkbm9f4f6dbdfqefuff
[root@linux2019_01 ~]# /usr/local/php-fpm/bin/php session.txt
1554277652
1554277652
bm9smc709und1mu3lj1vj7qf2j
[root@linux2019_01 ~]#
[root@linux2019_01 ~]#
[root@linux2019_01 ~]#
[root@linux2019_01 ~]# redis-cli
127.0.0.1:6379> keys *
1) "PHPREDIS_SESSION:bm9smc709und1mu3lj1vj7qf2j"
2) "PHPREDIS_SESSION:p5msv9h4i9fad748d35f2chdcu"
3) "PHPREDIS_SESSION:j7bcjbhgkbm9f4f6dbdfqefuff"
Redis主从配置
为了节省资源,我们可以在一台机器上启动两个redis服务
[root@linux2019_01 ~]# cp /etc/redis.conf /etc/redis_6380.conf
[root@linux2019_01 ~]# vim /etc/redis_6380.conf #需要修改port,dir,pidfile,logfile
port 6380
dir /var/redis_6380 #创建新的dir目录
pidfile /var/run/redis_6380.pid
replicaof 127.0.0.1 6379
#如果主上设置了密码,还需要增加配置 masterauth yourpassword #设置主redis的密码
[root@linux2019_01 ~]# redis-server /etc/redis_6380.conf
[root@linux2019_01 ~]# systemctl restart redis
[root@linux2019_01 ~]# ps aux |grep redis
root 8827 0.0 0.3 24852 7632 pts/0 S+ 16:02 0:00 redis-cli
root 9098 0.2 0.3 156444 7856 ? Ssl 16:22 0:00 redis-server 127.0.0.1:6380
root 9114 0.1 0.3 156444 7884 ? Ssl 16:22 0:00 /usr/local/bin/redis-server 127.0.0.1:6379
root 9202 0.0 0.0 112724 988 pts/2 S+ 16:29 0:00 grep --color=auto redis
[root@linux2019_01 ~]#
测试:
在主上创建新的key,或者用之前的脚本存储新的session,在从redis上能看到相应的数据
注意:redis主从和mysql主从不一样,redis主从不用事先同步数据,它会自动同步过去