High performance————对数据库高并发读写需求
Huge Storage———对海量数据高效存储与访问需求
High Scalability && High Availability——对数据库高可扩展性与高可用性需求
关系型数据库 | NoSQL 数据库 | |
---|---|---|
特点 | 数据关系模型基于关系模型,结构化存储,完整性约束 | 非结构化的存储 |
基于二维表及其之间的联系心需要连接、并、交、差、除等数据操作 | 基于多维关系模型 | |
采用结构化的查询语言(SQL)做数据读写 | 具有特有的使用场景 | |
操作需要数据的—致性,需要事务甚至是强—致性 | ||
优点 | 保持数据的—致性(事务处理) | 高并发,大数据下读写能力较强 |
可以进行join等复杂查询 | 基本支持分布式,易于扩展,可伸缩 | |
通用化,技术成熟 | 简单,弱结构化存储 | |
缺点 | 数据读写必须经过sql解析,大量数据、高并发下读写性能不足 | join等复杂操作能力较弱 |
对数据做读写,或修改数据结构时需要加锁,影响并发操作 | 事务支持较弱 | |
无法适应非结构化存储 | 通用性差 | |
扩展困难 | 无完整约束复杂业务场景支持较差 | |
昂贵、复杂 |
1、关系型数据库和非关系型数据库区别
1.1、数据存储方式不同
关系型和非关系型数据库的主要差异是数据存储的方式。关系型数据天然就是表格式的,因此存储在数据表的行和列中。数据表可以彼此关联协作存储,也很容易提取数据。
与其相反,非关系型数据不适合存储在数据表的行和列中,而是大块组合在一起。非关系型数据通常存储在数据集中,就像文档、键值对或者图结构。你的数据及其特性是选择数据存储和提取方式的首要影响因素。
关系型:依赖于关系模型E-R图,同时以二维表格式的方式存储数据
非关系型:除了以表格形式存储之外,通常会以大块的形式组合在一起进行存储数据
1.2、扩展方式不同
sQL和NoSQL数据库最大的差别可能是在扩展方式上,要支持日益增长的需求当然要扩展。
要支持更多并发量,sQL数据库是纵向扩展,也就是说提高处理能力,使用速度更快速的计算机,这样处理相同的数据集就更快了。因为数据存储在关系表中,操作的性能瓶颈可能涉及很多个表,这都需要通过提高计算机性能来克服。虽然sgL数据库有很大扩展空间,但最终肯定会达到纵向扩展的上限。
而NoSQL数据库是横向扩展的。因为非关系型数据存储天然就是分布式的,NoSQL数据库的扩展可以通过给资源池添加更多普通的数据库服务器(节点)来分担负载。
关系:纵向(天然表格式)
非关:横向(天然分布式)
1.3、对事务性的支持不同
如果数据操作需要高事务性或者复杂数据查询需要控制执行计划,那么传统的SQI数据库从性能和稳定性方面考虑是最佳选择。scL数据库支持对事务(ACID)原子性细粒度控制,并且易于回滚事务。
虽然MoSL数据库也可以使用事务操作,但稳定性方面没法和关系型数据库比较,所以它们真正闪亮的价值是在操作的扩展性和大数据量处理方面。
关系型:特别适合高事务性要求和需要控制执行计划的任务
非关系:此处会稍显弱势,其价值点在于高扩展性和大数据量处理方面
关系型数据库:
实例–>数据库–>表(table)–>记录行(row)、数据字段(column)——》存储数据
非关系型数据库:
实例–>数据库–>集合(collection) -->键值对(key-value)
基于内存运行并支持持久化
采用key-value(键值对)的存储形式
缓存是为了调节速度不一致的两个或多个不同的物质的速度,在中间对速度较慢的一方起到加速作用,比如CPU的一级、二级缓存是保存了CPU最近经常访问的数据,内存是保存CPU经常访问硬盘的数据,而且硬盘也有大小不一的缓存,甚至是物理服务器的raid 卡有也缓存,都是为了起到加速CPU 访问硬盘数据的目的,因为CPU的速度太快了,CPU需要的数据由于硬盘往往不能在短时间内满足CPU的需求,因此CPU缓存、内存、Raid 卡缓存以及硬盘缓存就在一定程度上满足了CPU的数据需求,即CPU 从缓存读取数据可以大幅提高CPU的工作效率。
buffer:缓冲也叫写缓冲,一般用于写操作,可以将数据先写入内存再写入磁盘,buffer 一般用于写缓冲,用于解决不同介质的速度不一致的缓冲,先将数据临时写入到里自己最近的地方,以提高写入速度,CPU会把数据先写到内存的磁盘缓冲区,然后就认为数据已经写入完成看,然后由内核在后续的时间在写入磁盘,所以服务器突然断电会丢失内存中的部分数据。
cache:缓存也叫读缓存,一般用于读操作,CPU读文件从内存读,如果内存没有就先从硬盘读到内存再读到CPU,将需要频繁读取的数据放在里自己最近的缓存区域,下次读取的时候即可快速读取。
浏览器的DNS缓存默认为60秒,即60秒之内在访问同一个域名就不在进行DNS解析
Nginx、PHP等web服务可以设置应用缓存以加速响应用户请求,另外有些解释性语言,比如:
PHP/Python/Java不能直接运行,需要先编译成字节码,但字节码需要解释器解释为机器码之后才能执
行,因此字节码也是一种缓存,有时候还会出现程序代码上线后字节码没有更新的现象。所以一般上线
新版前,需要先将应用缓存清理,再上线新版。
另外可以利用动态页面静态化技术,加速访问,比如:将访问数据库的数据的动态页面,提前用程序生成静态
页面文件html 电商网站的商品介绍,评论信息非实时数据等皆可利用此技术实现。
[root@localhost ~]# systemctl disable --now firewalld 关闭防火墙
[root@localhost ~]# systemctl stop firewalld
[root@localhost ~]# setenforce 0
[root@localhost ~]# yum install -y gcc gcc-c++ make 安装环境
[root@localhost ~]# cd /opt
[root@localhost opt]# rz -E 导入安装包
rz waiting to receive.
[root@localhost opt]# ls
redis-5.0.7.tar.gz rh
[root@localhost opt]# tar zxvf redis-5.0.7.tar.gz -C /opt/ 解压到/opt
[root@localhost opt]# cd /opt/redis-5.0.7/
[root@localhost redis-5.0.7]# make
[root@localhost redis-5.0.7]# make PREFIX=/usr/local/redis install
[root@localhost redis-5.0.7]# cd /opt/redis-5.0.7/utils/
[root@localhost utils]# ./install_server.sh
。。。一路回车
[root@localhost utils]# ss -natp |grep redis
[root@localhost ~]# vim /etc/redis/6379.conf
[root@localhost ~]# /etc/init.d/redis_6379 restart
[root@localhost ~]# ss -natp |grep redis
[root@localhost ~]# ln -s /usr/local/redis/bin/* /usr/local/bin/
redis-server:
#用于启动 Redis 的工具
redis-benchmark:
#用于检测 Redis 在本机的运行效率
redis-check-aof:
#修复 AOF 持久化文件
redis-check-rdb:
#修复 RDB 持久化文件
redis-cli:
#是 Redis 命令行工具
语法:
redis-cli -h host -p port -a password -n 数据序号(0-15)
-h:指定远程主机
-p:指定redis服务端口
-a:指定密码,未设置数据库密码可以省略-a选项
-n:指定数据序号 库默认是0号库redis有16个库(0-15)
若不添加任何选型表示,则使用127.0.0.1:6379 连接本机上的redis 数据库
redis-benchmark 是官方自带的 Redis 性能测试工具, 可以有效的测试 Redis 服务的性
能。 基本的测试语法为
redis-benchmark [选项] [选项值]
-h: 指定服务器主机名。
-p: 指定服务器端口。
-s: 指定服务器 socket。
-c: 指定并发连接数。
-n: 指定请求数。
-d: 以字节的形式指定 SET/GET 值的数据大小。
-k: 1=keep alive 0=reconnect 。
-r: SET/GET/INCR 使用随机 key, SADD 使用随机值。
-P: 通过管道传输请求。
-q: 强制退出 redis。 仅显示 query/sec 值。
–csv: 以 CSV 格式输出。
-l: 生成循环, 永久执行测试。
-t: 仅运行以逗号分隔的测试命令列表。
-I: Idle 模式。 仅打开 N 个 idle 连接并等待。
[root@localhost ~]# redis-benchmark -h 192.168.133.50 -p 6379 -c 100 -n 1000 为 6379 的 Redis 服务器发送 100 个并发连接与 1000 个请求测试性能
[root@localhost ~]# redis-benchmark -h 192.168.133.50 -p 6379 -q -d 100 试存取
大小为 100 字节的数据包的性能
[root@localhost ~]# redis-benchmark -t set,lpush -n 100000 -q 测试本机上 Redis 服务在进行 set 与 lpush 操作时的性能。
[root@localhost ~]# redis-cli 任何参数不加就是默认127.0.0.1的数据库
设置键和值
127.0.0.1:6379> set shuihu wuyong
OK
127.0.0.1:6379> get shuihu
"wuyong"
使用 keys 命令可以取符合规则的键值列表, 通常情况可以结合*、 ? 等选项来使用
127.0.0.1:6379> keys *
127.0.0.1:6379> keys cl* *代表后面所有
1) "class2"
2) "class23"
3) "class1"
127.0.0.1:6379> keys class? ?代表一个字符
1) "class2"
2) "class1"
127.0.0.1:6379> keys class?? 几个?就是几个字符
1) "class23"
127.0.0.1:6379> EXISTS class1 存在显示1
(integer) 1
127.0.0.1:6379> EXISTS class 不存在显示0
(integer) 0
127.0.0.1:6379> EXISTS sclool
(integer) 0
使用 type 命令可以获取 key 对应的 value 值类型 只对已有键值有效否则会提示none
127.0.0.1:6379> type class1 已有键值
string
127.0.0.1:6379> type yu 未有键值
none
rename 源 key 目标 key
rename 命令是对已有 key 进行重命名, 其命令格式为: rename 源 key 目标 key。 使用
rename 命令进行重命名时, 无论目标 key 是否存在都进行重命名, 且源 key 的值会覆盖目
标 key 的值。 在实际使用过程中, 建议先用 exists 命令查看目标 key 是否存在, 然后再决
定是否执行 rename 命令, 以避免覆盖重要数据
127.0.0.1:6379> get class2 查看class2 的值
"2"
127.0.0.1:6379> rename class2 class3 改class2键值名为class3
OK
127.0.0.1:6379> get class3 再次查看值没有变
"2"
renamenx 命令的作用是对已有 key 进行重命名, 并检测新名是否存在。 其命令格式与
rename 的命令格式除命令关键字不同外基本相同, renamenx 源 key 目标 key。 使用
renamenx 命令进行重命名时, 如果目标 key 存在则不进行重命名
127.0.0.1:6379> get class3 获得class3的值
"2"
127.0.0.1:6379> RENAMENX class3 class4 改class3为class4
(integer) 1 验证成功
127.0.0.1:6379> get class4 可以正常获得class4的值
"2"
127.0.0.1:6379> RENAMENX class4 class1 但是想要改成class1就不被允许
(integer) 0
dbsize 命令的作用是查看当前数据库中 key 的数目
127.0.0.1:6379> DBSIZE
(integer) 9
127.0.0.1:6379> CONFIG SET requirepass 123456 设置密码
OK
127.0.0.1:6379> AUTH 123456 验证密码
OK
127.0.0.1:6379> CONFIG gET requirepass 查看密码
1) "requirepass"
2) "123456"
[root@localhost ~]# redis-cli -h 192.168.133.50 -p 6379 从192.168.133.50机器上登录
192.168.133.50:6379> keys *
(error) NOAUTH Authentication required. 未验证密码前查看键值被拒绝了
192.168.133.50:6379> AUTH 123456 验证密码
OK
192.168.133.50:6379> keys * 查看键值就可以了
1) "shuihu"
2) "counter:__rand_int__"
3) "myset:__rand_int__"
4) "class4"
5) "mylist"
6) "class23"
7) "class1"
8) "key:__rand_int__"
9) "\xe6\xb0\xb4\xe6\xb5\x92"
192.168.133.50:6379> CONFIG SET requirepass '' 我们也可以把密码设置为空
OK
Redis 支持多数据库, Redis 在没有任何改动的情况下默认包含 16 个数据库, 数据库名
称是用数字 0-15 来依次命名的。 使用 Select 命令可以进行 Redis 的多数据库之间的切换,
命令格式为 select index,其中 index 表示数据库的序号。 而使用 redis-cli 连接 Redis 数
据库后, 默认使用的是序号为 0 的数据库。
192.168.133.50:6379> SELECT 10
OK
[root@localhost ~]# redis-cli -h 192.168.133.50 -p 6379 -n 10
Redis 的多数据库在一定程度上是相对独立的, 例如在数据库 0 上面存放的 k1 的数据,
在其它的 1-15 的数据库上是无法查看到的。
192.168.133.50:6379> get class1 获得class1的值
"1"
192.168.133.50:6379> move class1 10 移动到数据库10中
(integer) 1
192.168.133.50:6379> SELECT 10 转移到数据库中
OK
192.168.133.50:6379[10]> get class1 获得键值
"1"
Redis 数据库的整库数据删除主要分为两个部分:
清空当前数据库数据,
使用 FLUSHDB
192.168.133.50:6379[10]> FLUSHDB 清空数据库
OK
192.168.133.50:6379[10]> keys * 查看没有数据了
(empty list or set)
清空所有数据库的数据, 使用 FLUSHALL 命令实现。 但是, 数据清空操作比较危
险, 生产环境下一般不建议使用。
在web服务器中,高可用是指服务器可以正常访问的时问,衡量的标准是在多长时间内可以提供正常服务(99.9%、99.99%、99.998等等)。
但是在Redis语境中,高可用的含义似乎要宽泛一些,除了保证提供正常服务(如主从分离、快速容灾技术),还需要考虑数据容量的扩展、数据安全不会丢失等。
在Redis中,实现高可用的技术主要包括持久化、主从复制、哨兵和cluster集群:
Redis 是一种高级 key-value 数据库。 它跟 memcached 类似, 不过数据可以持久化, 而
且支持的数据类型很丰富。 有字符串, 链表, 集合和有序集合。 支持在服务器端计算集合的
并, 交和补集(difference)等, 还支持多种排序功能。 所以 Redis 也可以被看成是一个数据
结构服务器。
Redis 的所有数据都是保存在内存中, 然后不定期的通过异步方式保存到磁盘上(这称
为“半持久化模式” ); 也可以把每一次数据变化都写入到一个 append only file(aof)里
面(这称为“全持久化模式” )。
由于 Redis 的数据都存放在内存中, 如果没有配置持久化, redis 重启后数据就全丢失
了, 于是需要开启 redis 的持久化功能, 将数据保存到磁盘上, 当 redis 重启后, 可以从磁
盘中恢复数据。 redis 提供两种方式进行持久化, 一种是 RDB 持久化(原理是将 Reids 在内
存中的数据库记录定时 dump 到磁盘上的 RDB 持久化), 另外一种是 AOF(append only file)
持久化(原理是将 Reids 的操作日志以追加的方式写入文件)。
Redis是运行在内存中,内存中的数据断电丢失
为了能够重用Redis数据,或者防止系统故障,我们需要将Redis中的数据写入到磁盘空间中,即持久化
创建快照的方式获取某一时刻Redis中所有数据的副本,只保存结果,为了提高处理效率和提高落地在磁盘中的占用体积,会进行压缩处理
RDB 持久化是指在指定的时间间隔内将内存中的数据集快照写入磁盘, 实际操作过程是fork 一个子进程, 先将数据集写入临时文件, 写入成功后, 再替换之前的文件, 用二进制压缩存储
执行流程
(1) Redis父进程首先判断 :当前是否在执行save,或bgsave/bgrewriteaof的子进程,如果在执行则bgsave命令直接返回。
bgsave/bgrewriteaof 的子进程不能同时执行,主要是基于性能方面的考虑:两个并发的子进程同时执行大量的磁盘写操作,可能引起严重的性能问题。
(2) 父进程执行fork操作创建子进程,这个过程中父进程是阻塞的,Redis不能执行来自客户端的任何命令
(3) 父进程fork后,bgsave 命令返回 “Background saving started” 信息并不再阻塞父进程,并可以响应其他命令
(4) 子进程创建RDB文件,根据父进程内存快照生成临时快照文件,完成后对原有文件进行替换
(5) 子进程发送信号给父进程表示完成,父进程更新统计信息
启动时加载
RDB文件的载入是在服务器启动时自动执行的,并没有专门的命令。但是由于AOF的优先级更高,因此当AOF开启时,Redis会优先载入AOF文件来恢复数据;只有当A0F关闭时,才会在Redis服务器启动时检测RDB文件,并自动载入。服务器载入RDB文件期间处于阻塞状态,直到载入完成为止。
Redis载入RDB文件时,会对RDB文件进行校验,如果文件损坏,则日志中会打印错误,Redis启动失败
配置项有一项可以 忽略 RDB文件的错误,开启redis
RDB 持久化触发条件分为手动触发和自动触发两种
save命令和bgsave命令都可以生成RDB文件。
save命令会阻塞Redis服务器进程,直到RDB文件创建完毕为止,在Redis服务器阻塞期间,服务器不能处理任何命令请求。
而bgsave命令会创建一个子进程,由子进程来负责创建RDB文件,父进程 (即Redis主进程) 则继续处理请求。
bgsave命令执行过程中,只有fork 子进程时会阻塞服务器,而对于save命令,整个过程都会阻塞服务器,因此save已基本被废弃,线上环境要杜绝save的使用。往往生产环境 bgsave 依然不允许轻易使用
在自动触发RDB持久化时,Redis也会选择bgsave而不是save来进行持久化。
save m n
自动触发最常见的情况是在配置文件中通过save m n,指定当m秒内发生n次变化时,会触发bgsave。
vim /etc/redis/6379.conf
--219行--以下三个save条件满足任意一个时,都会引起bgsave的调用
save 900 1 :当时间到900秒时,如果redis数据发生了至少1次变化,则执行bgsave
save 300 10 :当时间到300秒时, 如果redis数据发生了至少10次变化,则执行bgsave
save 60 10000 :当时间到60秒时,如果redis数据发生了至少10000次变化, 则执行bgsave
--242行--是否开启RDB文件压缩
rdbcompression yes
--254行--
dbfilename dump.rdb
--264行--指定RDB文件和AOF文件所在目录
dir /var/lib/redis/6379
除了 save m n 以外,还有一些其他情况会触发bgsave
以日志的形式记录服务器所处理的每一个写、 删除操作, 查询操作不会记录,以文本的方式记录, 可以打开文件看到详细的操作记录。
Redis服务器默认开启RDB,关闭AOF: 要开启AOF,需要在配置文件中配置:
vim /etc/ redis/ 6379. conf
- 700行--修改, 开启AOF
appendonly yes
--704行--指定AOF文件名称
appendfilename "appendonly.aof"
--796行--是否忽略最后一条可能存在问题的指令
aof-load-truncated yes
/etc/init.d/redis_6379 restart
ls /var/lib/redis/6379
由于需要记录Redis的每条写命令,因此AOF不需要触发,下面介绍AOF的执行流程
AOF的执行流程包括:
● 命令追加(append): 将Redis的写命令追加到缓冲区aof_buf;
● 文件写入(write)和文件同步(sync):根据不同的同步策略将aof_buf中的内容同步到硬盘;
● 文件重写(rewrite): 定期重写AOF文件,达到压缩的目的。
Redis先将写命令追加到缓冲区,而不是直接写入文件,主要是为了避免每次有写命令都直接写入硬盘,导致硬盘IO成为Redis负载的瓶颈。
命令追加的格式是Redis命令请求的协议格式,它是一种纯文本格式,具有兼容性好、可读性强、容易处理、操作简单避免二次开销等优点。在AOF文件中,除了用于指定数据库的select命令 (如select0为选中0号数据库) 是由Redis添加的,其他都是客户端发送来的写命令。
innodb_flush_log_at_trx_commit=1
sync_binlog=1
如果innodb_flush_log_at_trx_commit设置为0:log buffer将每秒一次地写入log file中,并且log file的flush(刷到磁盘)操作同时进行.该模式下,在事务提交的时候,不会主动触发写入磁盘的操作;
如果innodb_flush_log_at_trx_commit设置为1:每次事务提交时MySQL都会把log buffer的数据写入log file,并且flush(刷到磁盘)中去;
如果innodb_flush_log_at_trx_commit设置为2:每次事务提交时MySQL都会把log buffer的数据写入log file,但是flush(刷到磁盘)操作并不会同时进行。该模式下,MySQL会每秒执行一次 flush(刷到磁盘)操作。
Redis 提供了多种AOF缓存区的同步文件策略,策略涉及到操作系统的write函数和fsync函数,说明如下:
为了提高文件写入效率,在现代操作系统中,当用户调用write函数将数据写入文件时,操作系统通常会将数据暂存到一个内存缓冲区里,当缓冲区被填满或超过了指定时限后,才真正将缓冲区的数据写入到硬盘里。这样的操作虽然提高了效率,但也带来了安全问题:如果计算机停机,内存缓冲区中的数据会丢失;因此系统同时提供了fsync、fdatasync等同步函数,可以强制操作系统立刻将缓冲区中的数据写入到硬盘里,从而确保数据的安全性。
触发条件
vim /etc/redis/6379.conf
---729---行
● appendfsync always:
命令写入aof_ buf后立即调用系统fsync操作同步到AOF文件,fsync完成后线程返回。这种情况下,每次有写命令都要同步到AOF文件,硬盘IO成为性能瓶颈,Redis只能支持大约几百TPS写入,严重降低了Redis的性能;即便是使用固态硬盘(SSD),每秒大约也只能处理几万个命令,而且会大大降低SSD的寿命。
● appendfsync no:
命令写入aof_ buf后调用系统write操作,不对AOF文件做fsync同步;同步由操作系统负责,通常同步周期为30秒。这种情况下,文件同步的时间不可控,且缓冲区中堆积的数据会很多,数据安全性无法保证。
● appendfsync everysec: 默认
命令写入aof_ buf后调用系统write操作,write完成后线程返回; fsync同步文件操作由专门的线程每秒调用一次。everysec是前述两种策略的折中,是性能和数据安全性的平衡,因此是Redis的默认配置,也是我们推荐的配置。
随着时间流逝,Redis服务器执行的写命令越来越多,AOF文件也会越来越大:过大的AOF文件不仅会影响服务器的正常运行,也会导致数据恢复需要的时间过长。
文件重写是指定期重写AOF文件,减小AOF文件的体积。需要注意的是,AOF重写是把Redis进程内的数据转化为写命令,同步到新的AOF文件;不会对旧的AOF文件进行任何读取、写入操作!
关于文件重写需要注意的另一点是:对于AOF持久化来说,文件重写虽然是强烈推荐的,但并不是必须的;即使没有文件重写,数据也可以被持久化并在Redis启动的时候导入:因此在一些实现中,会关闭自动的文件重写,然后通过定时任务在每天的某一时刻定时执行。
文件重写之所以能够压缩AOF文件,原因在于:
● 过期的数据不再写入文件
● 无效的命令不再写入文件:如有些数据被重复设值(set mykey v1, set mykey v2)、有些数据被删除了(sadd myset v1, del myset) 等。
● 多条命令可以合并为一个:如sadd myset v1, sadd myset v2, sadd myset v3可以合并为sadd myset v1 v2 v3。
通过上述内容可以看出,由于重写后AOF执行的命令减少了,文件重写既可以减少文件占用的空间,也可以加快恢复速度
文件重写的触发,分为手动触发和自动触发:
● 手动触发:直接调用bgrewriteaof命令,该命令的执行与bgsave有些类似:都是fork子进程进行具体的工作,且都只有在fork时阻塞。
● 自动触发:通过设置auto-aof - rewrite-min-size选项和auto- aof - rewrite- percentage选项来自动执行BGREWRITEAOF。
只有当auto-aof- rewrite- -min-size和auto-aof -rewrite-percentage两个选项同时满足时,才会自动触发AOF重写,即bgrewriteaof操作。
vim /etc/redis/6379.conf
----729----
●AOF 同步的策略
729 # appendfsync always
730 appendfsync everysec
731 # appendfsync no
----771----
● auto-aof-rewrite-percentage 100
:当前AOF文件大小(即aof_current_size)是上次日志重写时AOF文件大小(aof_base_size)两倍时,发生BGREWRITEAOF操作
● auto-aof - rewrite-min-size 64mb
:当前A0F文件执行BGREWRITEAOF命令的最小值,避免刚开始启动Reids时由于文件尺寸较小导致频繁的BGREWRITEAOF
关于文件重写的流程,有两点需要特别注意:
(1) 重写由父进程fork子进程进行;
(2) 重写期间Redis执行的写命令,需要追加到新的AOF文件中,为此Redis引入了aof_ rewrite_buf缓存。
#文件重写的流程如下:
(1) Redis父 进程首先判断当前是否存在正在执行bgsave/bgrewriteaof的子进程,如果存在则bgrewriteaof命令直接返回,如果存在bgsave命令则等bgsave执行完成后再执行。
(2) 父进程执行fork操作创建子进程,这个过程中父进程是阻塞的。
(3.1) 父进程fork后,bgrewriteaof 命令返回"Background append only file rewrite started" 信息并不再阻塞父进程,并可以响应其他命令。Redis的所有写命令依然写入AOF缓冲区,并根据appendfsync策略同步到硬盘,保证原有AOF机制的正确。
(3.2) 由于fork操作使用写时复制技术,子进程只能共享fork操作时的内存数据。由于父进程依然在响应命令,因此Redis使用AOF重写缓冲区(aof_ rewrite_buf) 保存这部分数据,防止新AOF文件生成期间丢失这部分数据。也就是说,bgrewriteaof执行 期间,Redis的写 命令同时追加到aof_ buf和aof_ rewirte_ buf两个缓冲区。
(4) 子进程根据内存快照,按照命令合并规则写入到新的AOF文件。
(5.1) 子进程写完新的AOF文件后,向父进程发信号,父进程更新统计信息,具体可以通过info persistence查看。
(5.2) 父进程把AOF重写缓冲区的数据写入到新的AOF文件,这样就保证了新AOF文件所保存的数据库状态和服务器当前状态一致。
(5.3) 使用新的AOF文件替换老文件,完成AOF重写。
redis 与其他常用非关数据库类似,都是将数据保存在内存中
而保存在内存中时,当redis重启,内存数据丢失,但redis通过RDB或AOF的持久化功能
可以在redis进行重启之后,优先读取AOF文件,基于AoF文件进行数据恢复这种方式来"持久化保存"数据
令牌桶算法:控制投放令牌的速度
漏桶算法:控制补充桶内物品和下漏速度
默认是惰性删除 LRU算法,控制内存中高热数据的保存时间
随机淘汰:淘汰近期命中较少的数据
定期删除—》保证两种持久化完成的情况下,同时业务不繁忙/终止业务的时候,删除为了解决缓存压力过大而导致使用swap交换分区以及牵扯到的其他功能模块问题
其他功能模块: AOF的持久化
Redis性能管理
192.168.133.50:6379>info memory
操作系统分配的内存值used_ memory_ rss除以Redis使用的内存值used_ memory计算得出内存碎片是由操作系统低效的分配/回收物理内存导致的 (不连续的物理内存分配)
#跟踪内存碎片率对理解Redis实例的资源性能是非常重要的:
● 内存碎片率稍大于1是合理的,这个值表示内存碎片率比较低
● 内存碎片率超过1.5,说明Redis消耗了实际需要物理内存的150号, 其中50号是内存碎片率。需要在redis-cli工具.上输入shutdown save命令,并重启Redis 服务器。
● 内存碎片率低于1的,说明Redis内存分配超出了物理内存,操作系统正在进行内存交换。需要增加可用物理内存或减少Redis内存占用。
redis实例的内存使用率超过可用最大内存,操作系统将开始进行内存与swap空间交换。
#避免内存交换发生的方法:
● 针对缓存数据大小选择安装Redis 实例
● 尽可能的使用Hash数据结构存储
● 设置key的过期时间
保证合理分配redis有限的内存资源。
当达到设置的最大阀值时,需选择一种key的回收策略,默认情况下回收策略是禁止删除。
配置文件中修改maxmemory- policy属性值:
vim /etc/redis/6379.conf
--598--
maxmemory-policy noenviction
●volatile-lru :使用LRU算法从已设置过期时间的数据集合中淘汰数据
●volatile-ttl :从已设置过期时间的数据集合中挑选即将过期的数据淘汰
●volatile-random :从已设置过期时间的数据集合中随机挑选数据淘汰
●allkeys-lru :使用LRU算法从所有数据集合中淘汰数据
●allkeys-random :从数据集合中任意选择数据淘汰
●noenviction :禁止淘汰数据