Redis --- 超级详细

NoSql概述

为什么使用NoSql?

单机MySQL年代

90年代,一个基本的网站访问量一般不会太大,单个数据库完全足够!
那个时候,更多的去使用静态网页Html~服务器根本没有太大的压力!
思考一下,这种情况下:整个网站的瓶颈是什么?
1、数据量如果太大、一个机器放不下了!
2、数据的索引( B+ Tree ) ,一个机器内存也放不下
3、访问量(读写混合),一个服务器承受不了~
只要你开始出现以上的三种情况之一,那么你就必须要晋级!

Memcached(缓存) + MySQL + 垂直拆分(读写分离)

网站80%的情况都是在读,每次都要去查询数据库的话就十分的麻烦!所以说我们希望减轻数据的压力,我们可以使用缓存来保证效率!
发展过程︰优化数据结构和索引–>文件缓存(IO)—>Memcached(当时最热门的技术!)

Redis --- 超级详细_第1张图片

分库分表 + 水平拆分 + MySql集群

技术和业务在发展的同时,对人的要求也越来越高!

本质∶数据库(读,写)

早些年MyISAM:表锁,十分影响效率!高并发下就会出现严重的锁问题
转战Innodb:行锁

慢慢的就开始使用分库分表来解决写的压力!MySQL在哪个年代推出了表分区!这个并没有多少公司使用!

MySOL的集群,很好满足哪个年代的所有需求!

Redis --- 超级详细_第2张图片

当下这个年代

2010–2020十年之间,世界已经发生了翻天覆地的变化;(定位,也是一种数据,音乐,热榜!)
MySQL等关系型数据库就不够用了!数据量很多,变化很快~!
MySQL有的使用它来存储一些比较大的文件,博客,图片!数据库表很大,效率就低了!如果有一种数据库来专门处理这种数据,
MySQL压力就变得十分小(研究如何处理这些问题!)大数据的IO压力下,表几乎没法更大!

目前一个基本的互联网项目
Redis --- 超级详细_第3张图片

为什么使用NoSql

这时候我们就需要使用NoSQL数据库的,Nosql可以很好的处理以上的情况!
用户的个人信息,社交网络,地理位置。用户自己产生的数据,用户日志等等爆发式增长!

什么是NoSql

NoSQL

NoSQL = Not Only sQL(不仅仅是SQL )
关系型数据库:表格,行,列

泛指非关系型数据库的,随着web2,0互联网的诞生!传统的关系型数据库很难对付web2.0时代!尤其是超大规模的高并发的社区↓暴露出来很多难以克服的问题,NoSQL在当今大数据环境下发展的十分迅速,Redis是发展最快的,而且是我们当下必须要掌握的一个技术!

很多的数据类型用户的个人信息,社交网络,地理位置。这些数据类型的存储不需要一个固定的格式!不需要多月的操作就可以横向扩展的! Map使用键值对来控制!

NoSQL 的特点

解耦!
1、方便扩展(数据之间没有关系,很好扩展!)
能会比较高!)
2、大数据量高性能(Redis一秒写8万次,读取11万,NoSQL的缓存记录级,是一种细粒度的缓存,性
3、数据类型是多样型的!(不需要事先设计数据库!随取随用!如果是数据量十分大的表,很多人就无法设计了! )
4、传统RDBMS和NoSQL

Redis --- 超级详细_第4张图片

了解:3V+3高

大数据时代的3V:主要是描述问题的
1.海量Volume
2.多样Variety
3.实时Velocity
大数据时代的3高:主要是对程序的要求
1.高并发
2高可扩
3.高性能

真正在公司中的实践:NoSQL+RDBMS一起使用才是最强的,阿里巴巴的架构演进!
技术没有高低之分,就看你如何去使用!(提升内功,思维的提高!)

NoSQL四大基本类型

KV键值对:
新浪:Redis
美团:Redis +Tair
阿里、白度:Redis + memecache
文档型数据库(bson格式和json一样):
MongoDB(一般必须要掌握)

  • o MongoDB是一个基于分布式文件存储的数据库,C++编写,主要用来处理大量的文档!
  • o MongoDB是一个介于关系型数据库和非关系型数据中中间的产品!MongoDB是非关系型数据库中功能最丰富,最像关系型数据库的!

.ConthDB

列存储数据库
HBase
分布式文件系统
Redis --- 超级详细_第5张图片

四者对比
Redis --- 超级详细_第6张图片

Redis 在linux下环境搭建

安装的前提条件:

需要安装gcc:yum install gcc-c++

1、下载redis的源码包。

2、把源码包上传到linux服务器

3、解压源码包

tar -zxvf redis-3.0.0.tar.gz

4、Make

5、Make install

[root@bogon redis-3.0.0]# make install PREFIX=/usr/local/redis

启动redis

1、前端启动模式

/usr/local/redis/bin/redis-server

默认是前端启动模式,端口是6379

2、后端启动

1)从redis的源码目录中复制redis.conf到redis(/usr/local)的安装目录。

2)修改配置文件

Redis --- 超级详细_第7张图片

3)[root@jsu bin]# ./redis-server redis.conf

4)redis-cli -p 6379 redis与客户端进行连接

./redis-server redis.conf     开启redis
redis-cli -p 6379			  redis与客户端进行连接
ps -ef|grep redis			  查看redis线程
redis-cli -p 6379 
shutdown
exit						  关闭线程

测试性能:

Redis --- 超级详细_第8张图片

#测试:100个并发连接100000请求
redis-benchmark -h localhost -p 6379 -c 100 -n 100000

Redis --- 超级详细_第9张图片

基础知识:

#redis 默认有16个数据库 0~15
#可以使用select切换数据库
[root@localhost bin] redis-cli -p 6379
127.0.0.1:6379> select 3 		# 切换3号数据库
OK
127.0.0.1:6379[3]> DBSIZE 		# 查看数据库大小
(integer) 0
127.0.0.1:6379[3]> set name su
OK
127.0.0.1:6379[3]> DBSIZE
(integer) 1
127.0.0.1:6379[3]> keys *		# 获取所有的键
1) "name"
127.0.0.1:6379[3]> get name 	# 通过键去取值
"su"
127.0.0.1:6379[3]> flushdb  	# 清空当前库的数据
OK
127.0.0.1:6379[3]> keys *
(empty list or set)
127.0.0.1:6379[3]> flushall 	# 清空所有库的数据
OK
127.0.0.1:6379[3]> exist name 	# 判断key是否存在
(integer)
127.0.0.1:6379>move name 1  	# 移动key 到 1 redis库中
(integer) 1
127.0.0.1:6379>del name      	# 删除key=name
(integer) 1
127.0.0.1:6379> keys *
1) "age"
127.0.0.1:6379> expire age 10 	# 设置key 过期的时间
(integer) 1
127.0.0.1:6379> ttl age		 	# 显示还有多少秒
(integer) 4
127.0.0.1:6379> get age			# 时间到了 就删除了
(nil)
127.0.0.1:6379> type name		# 查询type类型
string
127.0.0.1:6379> type age
string


为什么端口号是6379?

​ Redis的作者Antirez 喜欢意大利女演员Alessia Merz ,Merz 在手机九宫格上输入就是6379

Redis是单线程

明白Redis是很快的,官方表示,Redis是基于内存操作,CPU不是Redis性能瓶颈,Redis的瓶颈是根据机器的内存和网络带宽,既然可以使用单线程来实现,所以就使用单线程了!

Redis为什么单线程还这么快?

误区

1、高性能的服务器一定是多线程的?
2、多线程(CPU上下文会切换!)一定比单线程效率高!
先去CPU>内存>硬盘的速度要有所了解!

核心

​ redis是将所有的数据全部放在内存中的,所以说使用单线程去操作效率就是最高的,多线程(CPU上下文会切换︰耗时的操作!!! ),对于内存系统来说,如果没有上下文切换效率就是最高的!多次读写都是在一个CPU上的,在内存情况下,这个就是最佳的方案!

五大基本类型

String(字符串)

APPEND name xx		# 追加字符串
STRLEN name			# 字符串长度
incr views			# 自增1
decr views			# 自减1
INCRBY views 10		# 自增10
DECRBY views 5		# 自减10
GETRANGE name 0 3   # 截取0-3
GETRANGE name 0 -1  # 查询所有的字符串
SETRANGE name2 1 lin# 替换指定位置开始的字符串
# setex (set with expire)  设置过期时间
# setnx (set if not exist) 不存在该值在设置(分布式锁常常会用)
setex name3 30 xx	# key 过期时间 value
setnx name3 "redis" # key value K存在不设置 不存在再设置
mset k1 v1 k2 v2    # 批量存入
mget k1 k2 k3       # 批量获取
msetnx k1 v1 k2 v2  # K存在不设置 不存在再设置 一起成功或一起失败

###########################################################
# 对象
# 第一种  设置一个user:1对象 值为json字符来保存一个对象
127.0.0.1:6379> set user1:1 {name:zhangsan,age:4}
OK
127.0.0.1:6379> get user1:1
"{name:zhangsan,age:4}"
# 第二种  这里的key是一个巧妙的设计:user:{id}:{filed} 
127.0.0.1:6379> mset user2:1:name zhangsan user2:1:age 2
OK
127.0.0.1:6379> mget user2:1:name user2:1:age
1) "zhangsan"
2) "2"

#########################################################
# getset 组合使用
127.0.0.1:6379> getset db redis		# 不存在 set
(nil)
127.0.0.1:6379> get db				
"redis"
127.0.0.1:6379> getset db mongoDB	# 存在了 修改值 返回原始值
"redis"
127.0.0.1:6379> get db
"mongoDB"

List(列表)

# 将一个值或者多个值 插入到列表头部 (左)
# LPUSH == LEFT PUSH
127.0.0.1:6379> LPUSH list one
127.0.0.1:6379> LPUSH list two
127.0.0.1:6379> LPUSH list three
127.0.0.1:6379> LRANGE list 0 -1
1) "three"
2) "two"
3) "one"
# 将一个值或者多个值 插入到列表尾部 (右)
127.0.0.1:6379> RPUSH list four
127.0.0.1:6379> LRANGE list 0 -1
1) "three"
2) "two"
3) "one"
4) "four"

############################################################
# pop 取值  LPOP移除list的第一个元素
127.0.0.1:6379> LPOP list 
"three"
# RPOP移除list的最后一个元素
127.0.0.1:6379> RPOP list
"four"
# 获取索引位置为1的值
127.0.0.1:6379> LINDEX list 1
"one"
# 获取list长度
127.0.0.1:6379> LLEN list
(integer) 2 
# 删除指定个数的值
127.0.0.1:6379> LREM list 1 three

############################################################
# trim 修剪  list 截断
# 通过下标截取指定长度 只留下1到2的元素
127.0.0.1:6379> LTRIM list 1 2 
# RPOPLPUSH 移除列表中最后一个元素,将他移动到新的列表中
127.0.0.1:6379> RPOPLPUSH list otherlist

############################################################
# 判断这个列表是否存在 返回0不存在
127.0.0.1:6379> EXISTS list
# lset将列表中指定下标的值替换为另外一个值,更新操作
# 如果不存在列表我们去更新就会报错
127.0.0.1:6379>lset list 0 item
(error)ERR no such key
# 存取值的时候 list大多数使用的push pop 而不是setget
127.0.0.1:6379> lpush list value1
127.0.0.1:6379> lset list 0 item#如果存在,更新当前下标的值

############################################################
# insert  将某元素插入列表中某元素的后面或者前面
# 将"other" 插入到"world" 前面
127.0.0.1:6379> LINSERT mylist before "world" "other"
127.0.0.1:6379> LRANGE mylist 0 -1
1) "hello"
2) "other"
3) "world"

可以做消息排队!!消息队列(Lpush Rpop) 栈(Lpush Lpop)

Set(集合)

set中的值是不能重读的!

# 向set集合中添加元素
127.0.0.1:6379> sadd myset "cx"
# 查看指定set中的所有值
127.0.0.1:6379> SMEMBERS myset
1) "cx"
# 判断set中是否包含指定元素 包含返回1 不包含返回0
127.0.0.1:6379> SISMEMBER myset hello
# 查询set中有几个元素
127.0.0.1:6379> SCARD myset
# 移除set指定元素
127.0.0.1:6379> srem myset hello

############################################################
# set  无序不重复集合
# 随机抽出元素
127.0.0.1:6379> SRANDMEMBER myset
# 随机抽出指定个元素
127.0.0.1:6379> SRANDMEMBER myset 2
# 随机删除一个key
127.0.0.1:6379> spop myset
# 将一个指定的值 移动到另一个set集合中
127.0.0.1:6379> smove myset myset2 jsu

############################################################
127.0.0.1:6379> SDIFF set set2 		# 差集
127.0.0.1:6379> SINTER set set2		# 交集
127.0.0.1:6379> SUNION set set2		# 并集

Hash(哈希)

map集合,key-map! 这个值是map集合

# set一个具体的key -value
127.0.0.1:6379> hset myhash field1 su
# 获取一个字段值
127.0.0.1:6379> hget myhash field1
# set多个k-v
127.0.0.1:6379> hmset myhash field1 v1 f2 v2 f3 v3
# 获取多个字段值
127.0.0.1:6379> hmget myhash field1 f2 f3
# 获取所有的数据
127.0.0.1:6379> hgetall myhash
# 删除hash指定的K字段 对应的v也就没了
127.0.0.1:6379> hdel myhash field1

############################################################
# 获取hash的长度
127.0.0.1:6379> hlen myhash
#判断hash中指定字段是否存在!
127.0.0.1:6379>HEXISTS myhash field1
#只获得所有field
127.0.0.1:6379> hkeys myhash
#只获得所有value
127.0.0.1:6379> hvals myhash
#指定增量!
127.0.0.1:6379> hset myhash field3 5
127.0.0.1:6379>HINCRBY myhash field3 1
127.0.0.1:6379>HINCRBY myhash field3 -1
#如果不存在则可以设置  如果存在则不能设置
127.0.0.1:6379> hsetnx myhash field4 hello

Zset(有序集合)

在set的集合上 增加了一个值 set k1 v1 zset k1 score1 v1

# zset 存值和set一样 但是k前多了个序号  用来排序
127.0.0.1:6379> zadd myzset 1 one
127.0.0.1:6379> zadd myzset 3 three 4 four
# 查询所有
127.0.0.1:6379> zrange myzset 0 -1
1) "one"2) "two"3) "three"4) "four

# 排序如何实现
127.0.0.1:6379> zadd salary 2500 jsu
127.0.0.1:6379> zadd salary 5000 cx
127.0.0.1:6379> zadd salary 500 kiki
# 从小到大排序
127.0.0.1:6379> ZRANGEBYSCORE salary -inf +inf
1) "kiki"2) "jsu"3) "cx"
# 从小到大排序 加上scores
127.0.0.1:6379> ZRANGEBYSCORE salary -inf +inf withscores
1) "kiki"2) "500"
3) "jsu"4) "2500"
5) "cx"6) "5000"
# 从无穷小到2500排序 加上scores
127.0.0.1:6379> ZRANGEBYSCORE salary -inf 2500 withscores
1) "kiki"2) "500"
3) "jsu"4) "2500"
# 删除指定元素
127.0.0.1:6379> zrem salary jsu
# 获取长度
127.0.0.1:6379> ZCARD salary
# 按照指定元素 从大到小
127.0.0.1:6379> ZREVRANGE salary 0 -1
1) "cx"2) "kiki"
#获取指定区间的成员数量!
127.0.0.1:6379> zcount myset 1 3

三种特殊数据类型

Geospatial地理位置

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-PbSm5yZ3-1596114755910)(…/AppData/Roaming/Typora/typora-user-images/image-20200728215945359.png)]

#GEOADD 添加地理位置
#规则:两级无法直接添加,我们一般会下载城市数据,直接通过java程序一次性导入!
#有效的经度从-180度到180度。
#有效的纬度从-85.05112878度到85.05112878度。
#当坐标位置超出上述指定范围时,该命令将会返回一个错误。
127.0.0.1:6379> GEOADD china:city 116.40 39.90 beijing
127.0.0.1:6379> GEOADD china:city 121.47 31.23 shanghai
127.0.0.1:6379> GEOADD china:city 106.50 29.53 chongqi
127.0.0.1:6379> GEOADD china:city 114.05 22.52 shenzhen
127.0.0.1:6379> GEOADD china:city 120.16 30.24 hangzhou
127.0.0.1:6379> GEOADD china:city 108.96 34.26 xian

############################################################
# GEOPOS  获取指定城市的经度纬度
127.0.0.1:6379> GEOPOS china:city beijing
1) 1) "116.39999896287918091"
   2) "39.90000009167092543"
   
############################################################
# GEODIST 查询两个坐标的直线距离
127.0.0.1:6379> GEODIST china:city beijing shanghai
"1067378.7564"

############################################################
# GEORADIUS 以某经纬度为坐标中心 1000km为半径查询在之内的城市
127.0.0.1:6379> GEORADIUS china:city 110 30 1000 km
1) "chongqi"
2) "xian"
3) "shenzhen"
4) "hangzhou"
# 带上经纬度
127.0.0.1:6379> GEORADIUS china:city 110 30 500 km withcoord
1) 1) "chongqi"
   2) 1) "106.49999767541885376"
      2) "29.52999957900659211"
2) 1) "xian"
   2) 1) "108.96000176668167114"
      2) "34.25999964418929977"
# 带上直线距离
127.0.0.1:6379> GEORADIUS china:city 110 30 500 km withdist
1) 1) "chongqi"
   2) "341.9374"
2) 1) "xian"
   2) "483.8340"
# 带上经纬度 + 个数
127.0.0.1:6379> GEORADIUS china:city 110 30 500 km withcoord count 1
1) 1) "chongqi"
   2) 1) "106.49999767541885376"
      2) "29.52999957900659211"
2) 1) "xian"
   2) 1) "108.96000176668167114"
      2) "34.25999964418929977"

Hyperloglog

什么是基数?
A {1,3,5,7,8,7}
B {1,3,5,7,8}
基数(不重复的元素)=5,可以接受误差!
简介
Redis 2.8.9版本就更新了Hyperloglog数据结构!
Redis Hyperloglog基数统计的算法!

优点∶占用的内存是固定,2^64不同的元素的技术,只需要废12KB内存!如果要从内存角度来比较的话Hyperloglog首选!

网页的PV(一个人访问一个网站多次,但是还是算作一个人!)
传统的方式,set保存用户的id,然后就可以统计set中的元素数量作为标准判断!这个方式如果保存大量的用户id,就会比较麻烦!我们的目的是为了计数,而不是保存用户id0.81%错误率!统计UV任务,可以忽略不计的!

# 创建第一组
127.0.0.1:6379> PFADD mykey a b c d e f g h i j  
(integer) 1
# 统计mykey元素的基数数量
127.0.0.1:6379> PFCOUNT mykey
(integer) 10
# 创建第二组
127.0.0.1:6379> PFADD mykey2 i j z x c v b n m
(integer) 1
127.0.0.1:6379> PFCOUNT mykey2
(integer) 9
# 合并两组
127.0.0.1:6379> PFMERGE mykey3 mykey mykey2
OK
# 看并集的数量
127.0.0.1:6379> PFCOUNT mykey3
(integer) 15

Bitmap

模拟上班打卡

# 记录数据 每天是否打卡 打卡1 未打卡0
127.0.0.1:6379> setbit sign 0 1
127.0.0.1:6379> setbit sign 1 0
127.0.0.1:6379> setbit sign 2 0
127.0.0.1:6379> setbit sign 3 1
127.0.0.1:6379> setbit sign 4 1
127.0.0.1:6379> setbit sign 5 1
127.0.0.1:6379> setbit sign 6 0

# 查看某天的是否打卡
127.0.0.1:6379> getbit sign 5

# 打卡天数(1)
127.0.0.1:6379> BITCOUNT sign

事务

Redis事务本质: 一组命令的集合! 一个事务中所有的命令都会被序列化,在事务执行的过程中,会按照顺序执行!

一次性、顺序性、排他性!执行一些列的命令

------ 队列 set set set 执行 ------ 

Redis事务没有隔离级别的概念

所有的命令在事务中,并没有直接被执行,只有发起执行命令的时候才会执行!Exec

原子性:要么同时成功,要么同时失败

但是redis单条命令是保证原子性的,但是事务不保证原子性

Redis的事务

  • 开启事务(multi)
  • 命令入队(…)
  • 执行事务(exec)
# 开启事务
127.0.0.1:6379> multi
OK
# 命令入队
127.0.0.1:6379> set k1 v1
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> set k3 v3
QUEUED
127.0.0.1:6379> set k4 v4
QUEUED
127.0.0.1:6379> get k3
QUEUED
# 执行事务   一次性、顺序性、排他性
127.0.0.1:6379> exec
1) OK
2) OK
3) OK
4) OK
5) "v3"

############################################################
# 取消事务
127.0.0.1:6379> DISCARD
# 事务中所有的命令都不执行
127.0.0.1:6379> get k1
(nil)
# 编译期异常(代码有问题!命令有错),事务中所有的命令都不会被执行
# 开启事务
127.0.0.1:6379> multi
127.0.0.1:6379> set k1 v1 
127.0.0.1:6379> set k2 v2
# 错误的命令
127.0.0.1:6379> getset k2
(error) ERR wrong number of arguments for 'getset' command
127.0.0.1:6379> set k3 v3
# 执行事务报错!
127.0.0.1:6379> EXEC
(error) EXECABORT Transaction discarded because of previous errors.
# 所有的命令都不会执行
127.0.0.1:6379> get k2
(nil)

# 运行时异常(1/0),如果事务队列中存在语法性,那么执行命令的时候,其他的命令是可以正常执行的,错误命令会抛出异常!
# 设置一个字符串
127.0.0.1:6379> set k1 "v1"
# 开启事务
127.0.0.1:6379> MULTI 
# 自增1 错误命令,执行时候会失败
127.0.0.1:6379> INCR k1
127.0.0.1:6379> set k2 v2
127.0.0.1:6379> get k2
127.0.0.1:6379> EXEC
# 虽然第一条命令报错了 但是其他的会执行正常成功了
1) (error) ERR value is not an integer or out of range

监控!!watch

悲观锁:

  • 认为什么时候都会出现问题,无论做什么都会加锁

乐观锁:

  • 很乐观,认为什么时候都不会出现问题,所以不会上锁!更新的时候去判断一下,在此期间是否有人修改过这个数据,version!

  • 获取version

  • 更新的时候比较version

Redis监视测试

# 测试单线程
127.0.0.1:6379> set money 100
127.0.0.1:6379> set out 0
# 监视money对象
127.0.0.1:6379> watch money
# 事务正常结束,数据期间没有发生变动,这个时候就会正常执行成功
127.0.0.1:6379> MULTI
127.0.0.1:6379> DECRBY money 20
127.0.0.1:6379> INCRBY out 20
127.0.0.1:6379> exec
1) (integer) 80
2) (integer) 20
# 测试多线程修改值,使用watch可以当作redis的乐观锁
# 监视money
127.0.0.1:6379> watch money
127.0.0.1:6379> multi
127.0.0.1:6379> DECRBY money 10
127.0.0.1:6379> INCRBY out 10
# 执行之前 另外一个线程修改了值,就会执行失败
127.0.0.1:6379> EXEC
(nil)

# 解锁的操作
# UNWATCH EXEC DISCARD 都可以进行解锁

Jedis

什么是jedis? 
	java redis  是Redis官方推荐的java连接的开发工具! 使用Java操作Redis中间件! 如果使用Java操作redis,那么一定要对Jedis十分的熟悉

导入依赖

     
        <dependency>
            <groupId>redis.clientsgroupId>
            <artifactId>jedisartifactId>
            <version>3.2.0version>
        dependency>

        
        <dependency>
            <groupId>com.alibabagroupId>
            <artifactId>fastjsonartifactId>
            <version>1.2.62version>
        dependency>

编码测试

  • 连接数据库
  • 操作命令
  • 断开连接
public class TestJedis {
    public static void main(String[] args) {
        // new jedis对象
        Jedis jedis = new Jedis("127.0.0.1",6379);
        jedis.flushDB();
        // jedis 所有的命令都是之前学过的
        String ping = jedis.ping();
        System.out.println(ping);
    }

事务

public class TestJedis {
    public static void main(String[] args) {
        // new jedis对象
        Jedis jedis = new Jedis("127.0.0.1",6379);
        jedis.flushDB();
        JSONObject jsonObject = new JSONObject();
        jsonObject.put("hello","suj");
        jsonObject.put("name","kiki");

        // 事务开启
        Transaction multi = jedis.multi();
        String s = jsonObject.toString();
        try {
            multi.set("user1",s);
            multi.set("user2",s);
            int i = 1/0;        // 代码抛出异常  事务执行失败
            multi.exec();       // 执行事务
        }catch (Exception e){
            multi.discard();    // 如果失败 放弃事务
            e.printStackTrace();
        }finally {
            System.out.println(jedis.get("user1"));
            System.out.println(jedis.get("user2"));
            multi.close();      // 关闭连接
        }
    }
}

SpringBoot整合

​ SpringBoot操作数据:spring-data jpa jdbc mongodbredis !
​ SpringData 也是和SpringBoot齐名的项目!
说明:在SpringBoot2.x之后,原来使用的jedis 被替换为了lettuce?

jedis:采用的直连,多个线程操作的话,是不安全的,如果想要避免不安全的,使用jedis pool连接池!更像BIO模式

lettuce:采用netty,实例可以再多个线程中进行共享,不存在线程不安全的情况!可以减少线程数据了,更像NIO模式

源码分析

@Configuration(proxyBeanMethods = false)
@ConditionalOnClass(RedisOperations.class)
@EnableConfigurationProperties(RedisProperties.class)
@Import({ LettuceConnectionConfiguration.class, JedisConnectionConfiguration.class })
public class RedisAutoConfiguration {

	@Bean // 我们可以自己定义一个RedisTemplate
	@ConditionalOnMissingBean(name = "redisTemplate")
	public RedisTemplate<Object, Object> redisTemplate(RedisConnectionFactory redisConnectionFactory)
			throws UnknownHostException {
        // 默认的RedisTemplate没有过多的设置,redis对象都是需要序列化!
        // 两个泛型都是object的类型  我们后面使用需要强制转化
		RedisTemplate<Object, Object> template = new RedisTemplate<>();
		template.setConnectionFactory(redisConnectionFactory);
		return template;
	}

	@Bean
	@ConditionalOnMissingBean // 由于String是redis中最常用的类型,所以单独提出一个bean
	public StringRedisTemplate stringRedisTemplate(RedisConnectionFactory redisConnectionFactory)
			throws UnknownHostException {
		StringRedisTemplate template = new StringRedisTemplate();
		template.setConnectionFactory(redisConnectionFactory);
		return template;
	}

}

整合SpringBoot Redis

导入redis


<dependency>
	<groupId>org.springframework.bootgroupId>
    <artifactId>spring-boot-starter-data-redisartifactId>
dependency>
<dependency>
	<groupId>io.lettucegroupId>
	<artifactId>lettuce-coreartifactId>
	<version>5.3.2.RELEASEversion>
	<scope>compilescope>
dependency>

配置连接

spring:
  redis:
    host: 127.0.0.1 # 默认的就是这个
    port: 6379

测试

    @Autowired
    private RedisTemplate redisTemplate;

    @Test
    void contextLoads() {
        /**
         * 五大基本类型
         *      opsForValue  字符串
         *      opsForList   list集合
         *      opsForSet    set集合
         *      opsForHash   hash哈希
         *      opsForZSet   有序集合
         *
         *      expirAt 超时
         */
        // 获取redis的连接对象
        // RedisConnection connection = redisTemplate.getConnectionFactory().getConnection();
        // connection.flushDb();
        // connection.flushAll();

        redisTemplate.opsForValue().set("mykey","susu");
        System.out.println(redisTemplate.opsForValue().get("mykey"));
    }

实体类对象需要实例化 !!!

自己编写一个RedisTemplate

@Configuration
public class RedisConfig {
    /**
     * 功能描述: 自己定义一个RedisTemplate
     * @Param:  [redisConnectionFactory]
     * @Return: org.springframework.data.redis.core.RedisTemplate
     * @Author: Jsu
     */
    @Bean
    @SuppressWarnings("all")
    public RedisTemplate<String, Object> redisTemplate(RedisConnectionFactory factory){
        // 为了方便 一般直接使用
        RedisTemplate<String, Object> template = new RedisTemplate();
        template.setConnectionFactory(factory);
        // json 序列化配置
        Jackson2JsonRedisSerializer jsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class);
        ObjectMapper om = new ObjectMapper();
        om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
        om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);
        jsonRedisSerializer.setObjectMapper(om);

        // string 的序列化
        StringRedisSerializer stringRedisSerializer = new StringRedisSerializer();

        // key采用string的序列化方式
        template.setKeySerializer(stringRedisSerializer);
        // hash的key也采用string的序列化方式
        template.setHashKeySerializer(stringRedisSerializer);
        // value的序列化方式采用jackson
        template.setValueSerializer(jsonRedisSerializer);
        // hash的value的序列化方式采用jackson
        template.setHashValueSerializer(jsonRedisSerializer);
        template.afterPropertiesSet();

        return template;
    }
}

Redis.onf 详解

单位

配置文件unit单位对大小写不敏感
Redis --- 超级详细_第10张图片

包含 好比我们学习spring import include

Redis --- 超级详细_第11张图片

网络

bind 127.0.0.1		#绑定的ip
protected-mode yes 	#保护模式
port 6379			#端口设置

通用GENERAL

daemonize yes#以守护进程的方式运行,默认是no,我们需要自己开启为yes !
pidfile /var/run/redis_6379.pid #如果以后台的方式运行,我们就需要指定一个pid文件!
# 日志
# specify the server verbosity leve1.
# This can be one of:
# debug (a lot of information,useful for development/testing)
# verbose (many rarely useful info,but not a mess like the debug leve1)
# notice (moderately verbose,what you want in production probably)生产环境
# warning (only very important / critica7 messages are logged)
1ogleve1 notice
1ogfile ""			#日志的文件位置名
databases 16		#数据库的数量,默认是16个数据库
always-show-logo yes#是否总是显示LOGO

快照

持久化,在规定的时间内,执行了多少次操作,则会持久化到文件.rdb.aof
redis是内存数据库,如果没有持久化,那么数据断电及失!

#如果900s内,如果至少有一个1 key进行了修改,我们及进行持久化操作
save 900 1
#如果300s内,如果至少10 key进行了修改,我们及进行持久化操作
save 300 10
#如果60s内,如果至少10000 key进行了修改,我们及进行持久化操作
save 60 1000o
#我们之后学习持久化,会自己定义这个测试!
stop-writes-on-bgsave-error yes#持久化如果出错,是否还需要继续工作!
rdbcompression yes#是否压缩rdb文件,需要消耗一些cpu资源!
rdbchecksum yes #保存rdb文件的时候,进行错误的检查校验!
dir ./# rdb文件保存的目录!

SECURITY安全

可以在这里设置redis的密码,默认是没有密码!

127.0.0.1:6379> ping
PONG
127.0.0.1:6379> config get requirepass			#获取redis的密码
1) "requirepass"
2)""
127.0.0.1:6379> config set requirepass "123456"	#设置redis的密码
127.0.0.1:6379> config get requirepass			#发现所有的命令都没有权限了
(error)NOAUTH Authentication required .
127.0.0.1:6379> ping
(error)NOAUTH Authentication required.
127.0.0.1:6379> auth 123456						#使用密码进行登录!
127.0.0.1:6379> config get requirepass
1) "requirepass"
2) "123456"

限制CLIENTS

maxclients 10000			#设置能连接上redis的最大客户端的数量
maxmemory <bytes>			# redis 配置最大的内存容量
maxmemory-policy noeviction	#内存到达上限之后的处理策略
    1、volatile-1ru:只对设置了过期时间的key进行LRU(默认值)
    2、allkeys-lru :删除1ru算法的key
    3、volatile-random:随机删除即将过期key
    4、a11keys-random:随机删除
    5、volatile-ttl :删除即将过期的
    6、noeviction :永不过期,返回错误

APPEND ONLY模式aof配置

appendonly no				#默认是不开启aof模式的,默认是使用rdb方式持久化的,在大部分所有的情况下,rdb完全够用!
appendfilename "appendonly.aof"	#持久化的文件的名字
#appendfsync always			#每次修改都会sync。消耗性能
appendfsync everysec		#每秒执行一次sync,可能会丢失这1s的数据!	
#appendfsync no				#不执行sync,这个时候操作系统自己同步数据,速度最快!

Redis持久化

面试问到什么是持久化? RDB和AOF

Redis是内存数据库,如果不讲内存中的数据库状态保存到磁盘,那么一旦服务器进程退出以后,服务器中的数据库也会消失,所以Redis提供了持久化的功能

RDB(Redis DateBase)

什么是RDB

简单来讲:就是满足save的规则、执行flushall命令退出redis,会产生dump.rdb文件! 该文件存储了数据内容,可以通过此文件进行数据的恢复!!

Redis --- 超级详细_第12张图片

在指定的时间间隔内将内存中的数据集快照写入磁盘,也就是行话讲的Snapshot快照,它恢复时是将快照文件直接读到内存里。
Redis会单独创建( fork )一个子进程来进行持久化,会先将数据写入到一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件。整个过程中,主进程是不进行任何IO操作的。这就确保了极高的性能。如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加的高效。RDB的缺点是最后一次持久化后的数据可能丢失。我们默认的就是RDB,一般情况下不需要修改这个配置!有时候在生产环境我们会将这个文件进行备份!

rdb保存的文件是dump.rdb都是在我们的配置文件中快照中进行配置的!
20200730170548387.png
Redis --- 超级详细_第13张图片

触发机制

1、save的规则满足的情况下,会自动触发rdb规则
2、执行flushall命令,也会触发我们的rdb规则!
3、退出redis,也会产生rdb文件!
备份就自动生成一个dump.rdb

如何恢复rdb文件

1、只需要将rdb文件放在我们redis启动目录下面就可以了,redis启动是会自动检查dump.rdb 恢复其中的数据!

2、查看需要存在的位置

127.0.0.1:6379> config get dir
1"dir"
2) "/usr/loca1/bin"#如果在这个目录下存在dump.rdb文件,启动就会自动恢复其中的数据

一般使用默认的基本配置就够了 但是我们还是要学习!!

优点:
1、适合大规模的数据恢复!
2、对数据的完整性要不高!
缺点:
2、fork进程的时候,会占用一定的内容空间!!
1、需要一定的时间间隔进程操作!如果redis意外宕机了,这个最后一次修改数据就没有的了

AOF(Append Only File)

将我们的所有的命令都记录下来,history,恢复的时候就把这个文件全部执行一遍

是什么?

以日志的形式来记录每个写操作,将Redis执行过的所有指令记录下来(读操作不记录),只许追加文件但不可以改写文件,redis启动之初会读取该文件重新构建数据,换言之,redis重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作

简单讲: 日志形式记录每个操作,当被恶意修改的时候 redis就打不开了 需要使用redis-check-aof --fix 工具可以恢复,但是!! 被恶意修改的命令会删除!

Aof保存的是appendonly.aof文件

重写规则说明!

aof默认就是文件的无限追加,文件会越来越大!

如果aof文件大于64m,太大了! fork一个新的进程来将我们的文件进行重写!

Redis --- 超级详细_第14张图片

具体代码修改请往上翻找config中的内容

优点︰
1、每一次修改都同步,文件的完整会更加好!
2、每秒同步一次,可能会丢失—秒的数据
3、从不同步,效率最高的!
缺点︰
1、相对于数据文件来说,aof远远大于rdb,修复的速度也比rdb慢!
2、Aof运行效率也要比rdb慢,所以我们redis默认的配置就是rdb持久化

扩展∶
1、RDB持久化方式能够在指定的时间间隔内对你的数据进行快照存储
2、AOF持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据,AOF命令以Redis 协议追加保存每次写的操作到文件末尾,Redis还能对AOF文件进行后台重写,使得AOF文件的体积不至于过大。3、只做缓存,如果你只希望你的数据在服务器运行的时候存在,你也可以不使用}任何持久化

4、同时开启两种持久化方式

  • 在这种情况下,当redis重启的时候会优先载入AOF文件来恢复原始的数据,因为在通常情况下AOF
  • RDB的数据不实时,同时使用两者时服务器重启也只会找AOF文件,那要不要只使用AOF呢?作者建议不要,因为RDB更适合用于备份数据库(AOF在不断变化不好备份),快速重启,而且不会有AOF可能潜在的Bug,留着作为一个万一的手段。

5、性能建议

  • 因为RDB文件只用作后备用途,建议只在Slave上持久化RDB文件,而且只要15分钟备份一次就够了,只保留save 9001这条规则。

  • 如果Enable AOF,好处是在最恶劣情况下也只会丢失不超过两秒数据,启动脚本较简单只load自己的AOF文件就可以了,代价一是带来了持续的IO,二是AOF rewrite的最后将rewrite 讨程中产生的新数据写到新文件造成的阻塞几乎是不可避免的。只要硬盘许可,应该尽量减少AOF rewrite的频率,AOF重写的基础大小默认值64M太小了,可以设到5G以上,默认超过原大小100%大小重写可以改到适当的数值。

  • 如果不Enable AOF,仅靠Master-Slave Repllcation实现高可用性也可以,能省掉一大笔IO,也减少了rewrite时带来的系统波动。代价是如果Master/Slave同时倒掉,会丢失十几分钟的数据,启动脚本也要比较两个Master/Slave中的RDB文件,载入较新的那个,微博就是这种架构。

Redis主从赋值

概念

​ 主从赋值,是指将一台Redis服务器的数据,复制到其他的Redis服务器上。前者称为主节点(master/leader),后者称为从节点(slave/follower);数据的复制是单向的,只能由主节点到从节点Master以写为主,Slave以读为主

默认情况下,每台Redis服务器都是主节点

且一个主节点可以有多个从节点(或没有从节点),但一个从节点只能有一个主节点

主从复制的作用主要包括:

1、数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式

2、故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余。

3、负载均衡:在主从复制的基础上,配合读写分离,可以由主节点提供写服务,从结点提供读服务(即写Redis数据时应用连接主节点,读Redis数据时应用连接从节点),分担服务器重载;尤其是在写少读多的场景下,通过多个从结点分担读负载,可以大大提高redis服务的并发量

4、高可用(集群)基石:除了上述作用以外,主从复制还是哨兵和集群能后实施的基础,因此说主从复制是redis高可用的基础

一般来讲,要将Redis运用于工程项目中,只使用一台Redis是万万不能的(宕机),原因如下:

1、从结构上来讲,单个redis服务器会发生单点故障,并且一台服务器需要处理所有的请求负载,压力较大。

2、从容量上,单个Redis服务器内存容量有限,就算一台Redis服务器内存容量为256G,也不能讲所有的内存用作Redis存储内存,一般来说,单台redis最大使用内存不应该超过20G.

电商网站上的商品,都是一次上传,无数次的浏览,专业来讲就是“多读少写”。

可以使用下面这种架构:

Redis --- 超级详细_第15张图片

主从复制,读写分离!80%的情况下都是在进行读操作!减缓服务器的压力!架构中经常使用!一主二从!
只要在公司中,主从复制就是必须要使用的,因为在真实的项目中不可能单机使用Redis

环境配置

只配置从库,不用配置主库

127.0.0.1:6379> info replication	# 查看当前库的信息
# Replication
role:master			# 角色 master
connected_slaves:0	 # 没有从机
master_replid:3a0c53fe0992786e38d4bc7fd48ac5ab50215fd1
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:0
second_repl_offset:-1
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0

复制三个配置文件,然后修改对应的信息

1、端口 (6379,6380,6381)

2、pid名字 pidfile /var/run/redis(6379,6380,6381).pid

3、log文件名字 (logfile “(6379,6380,6381).log”)

4、dump.rdb名字 dbfilename dump(6379,6380,6381).rdb

修改完成以后,启动我们的三个redis服务器,可以通过进程查看

Redis --- 超级详细_第16张图片

一主二从

默认环境下,每台Redis服务器都是主节点;我们一般情况下只配置从机就好了

认老大! 一主(79)二从(80,81)

127.0.0.1:6380>SLAVEOF 127.0.0.1 6379#SLAVEOF host 6379找谁当自己的老大!
OK
127.0.0.1:6380> info replication
#Replication
role:slave#当前角色是从机
master_host:127.0.0.1#可以的看到主机的信息
master_port :6379
master_link_status: up
master_last_io_seconds_ago: 3
master_sync_in_progress:0
slave_repl_offset:14
slave_priority:100
slave_read_on1y:1
connected_slaves :0
master_replid:a81be8dd257636b2d3e7a9f595e69d73ff03774e
master_replid2: 000000o0000o0oooo0oo0000000oo0oo00000ooo
master_rep1_offset:14
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
rep1_backlog_first_byte_offset:1
rep1_backlog_histlen : 14
#在主机中查看!
127.0.0.1:6379> info replication
#Replication
role:master
connected_slaves:1#多了从机的配置
master_replid:a81be8dd257636b2d3e7a9f595e69d73ff03774e
master_replid2:0000000000000000000o0000000000000000000o
master_repl_offset:42
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
rep1_backlog_first_byte_offset:1
repl_backlog_histlen:42

如果两个都配置好了,从机变成2
Redis --- 超级详细_第17张图片

细节

主机可以写,从机只能读!!主机所有的信息和数据,都会自动被从机保存

主机写

Redis --- 超级详细_第18张图片

从机只能读

在这里插入图片描述

测试∶主机断开连接,从机依旧连接到主机的,但是没有写操作,这个时候,主机如果回来了,从机依旧可以直接获取到主机写的信息!
如果是使用命令行,来配置的主从,这个时候如果重启了。就会变回主机!只要变为从机,立马就会从主机中获取值!

复制原理

Slave启动成功连接到master后会发送一个sync同步命令
Master接到命令,启动后台的存盘进程,同时收集所有接收到的用于修改数据集命令,在后台进程执行完毕之后,master将传送整个数据文件到slave,并完成一次完全同步。
全量复制:而slave服务在接收到数据库文件数据后,将其存盘并加载到内存中。
增量复制:Master继续将新的所有收集到的修改命令依次传给slave,完成同步
但是只要是重新连接master,一次完全同步(全量复制)将被自动执行!我们的数据一定可以在从机中看到!

如果没有老大了,这个时候能不能选择一个老大出来呢?手动!

谋朝篡位
如果主机断开了连接,我们可以使用SLAVEOF no one让自己变成主机!其他的节点就可以手动连接到最新的这个主节点(手动)!如果这个时候老大修复了,那就重新连接!

哨兵模式

概述

主从切换技术的方法是︰当主服务器宕机后,需要手动把一台从服务器切换为主服务器,这就需要人工干预,费事费力,还会造成一段时间内服务不可用。这不是一种推荐的方式,更多时候,我们优先考虑哨兵模式。Redis从2.8开始正式提供了Sentinel(哨兵)架构来解决这个问题。
谋朝篡位的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库。
哨兵模式是一种特殊的模式,首先Redis提供了哨兵的命令,哨兵是一个独立的进程,作为进程,它会独立运行。其原理是哨兵通过发送命令,等待Redis服务器响应,从而监控运行的多个Redis实例

Redis --- 超级详细_第19张图片

这里的哨兵有两个作用

  • 通过发送命令,让Redis服务器返回监控其运行状态,包括主服务器和从服务器。
  • 当哨兵监测到master宕机,会自动将slave切换成master,然后通过发布订阅模式通知其他的从服务器,修改配置文件,让它们切换主机。

然而一个哨兵进程对Redis服务器进行监控,可能会出现问题,为此,我们可以使用多个哨兵进行监控。各个哨兵之间还会进行监控,这样就形成了多哨兵模式。

Redis --- 超级详细_第20张图片

​ 假设主服务器宕机,哨兵1先检测到这个结果,系统并不会马上进行failover过程,仅仅是哨兵1主观的认为主服务器不可用,这个现象成为主观下线。当后面的哨兵也检测到主服务器不可用,并且数量达到一定值时,那么哨兵之间就会进行一次投票,投票的结果由一个哨兵发起,进行failover[故障转移]操作。切换成功后,就会通过发布订阅模式,让各个哨兵把自己监控的从服务器实现切换主机,这个过程称为客观下线

测试!

我们目前的状态是 一主二从!

1、配置哨兵配置文件sentinel.conf

#sentinel monitor 被监控的名称 host port 1
sentinel monitor myredis(127.0.0.1 6379 1

后面的这个数字1,代表主机挂了,slave投票看让谁接替成为主机,票数最多的,就会成为主机!

2、启动哨兵,重新选定主机

Redis --- 超级详细_第21张图片

如果主机此时回来了,只能归并到新的主机下,当做从机,这就是哨兵模式的规则!

哨兵模式

优点∶
1、哨兵集群,基于主从复制模式,所有的主从配置优点,它全有
2、主从可以切换,故障可以转移,系统的可用性就会更好
3、哨兵模式就是主从模式的升级,手动到自动,更加健壮!
缺点︰
1、Redis不好啊在线扩容的,集群容量一旦到达上限,在线扩容就十分麻烦!
2、实现哨兵模式的配置其实是很麻烦的,里面有很多选择!

哨兵模式的全部配置

# Example sentinel.conf
# 哨兵sentinel实例运行的端口默认26379
port 26379
# 哨兵sentinel的工作目录
dir /tmp

# 哨兵sentinel监控的redis主节点的ip port
# master-name可以自己命名的主节点名字只能由字母A-z、数字O-9、这三个字符".-_"组成。
# quorum配置多少个sentine1哨兵统一认为master主节点失联那么这时客观上认为主节点失联了
#sentine7 monitor   
sentinel monitor mymaster 127.0.0.1 6379 2

# 当在Redis实例中开启了requirepass foobared授权密码这样所有连接Redis实例的客户端都要提供密码
# 设置哨兵sentinel连接主从的密码注意必须为主从设置一样的验证密码
# sentine7 auth-pass  
sentine7 auth-pass mymaster MySUPER--secret-0123passwOrd

# 指定多少毫秒之后主节点没有应答哨兵sentine1此时哨兵主观上认为主节点下线默认30秒
# sentinel down-after-milliseconds  
sentine1 down-after-mi17iseconds mymaster 30000

# 这个配置项指定了在发生failover主备切换时最多可以有多少个slave同时对新的master进行同步
# 这个数字越小,完成failover所需的时间就越长,
# 但是如果这个数字越大,就意味着越多的slave因为replication而不可用。
# 可以通过将这个值设为1来保证每次只有一个slave处于不能处理命令请求的状态。
# sentinel para1le1-syncs  
sentine1 parallel-syncs mymaster 1

# 故障转移的超时时间failover-timeout可以用在以下这些方面:
# 1.同一个sentine1对同一个master两次failover之间的间隔时间。
# 2,当一个slave从一个错误的master那里同步数据开始计算时间。直到slave被纠正为向正确的master那里同步数据时。
# 3.当想要取消一个正在进行的failover所需要的时间。
# 4.当进行failover时,配置所有slaves指向新的master所需的最大时间。不过,即使过了这个超时,slaves依然会被正确配置为指向master,但是就不按parallel-syncs所配置的规则来了
#默认三分钟
#sentinel failover-timeout  
sentinel failover-timeout mymaster 180000

# SCRIPTS EXECUTION
# 配置当某一事件发生时所需要执行的脚本,可以通过脚本来通知管理员,例如当系统运行不正常时发邮件通知相关人员。
# 对于脚本的运行结果有以下规则:
# 若脚本执行后返回1,那么该脚本稍后将会被再次执行,重复次数目前默认为10
# 若脚本执行后返回2,或者比2更高的一个返回值,脚本将不会重复执行。
# 如果脚本在执行过程中由于收到系统中断信号被终止了,则同返回值为1时的行为相同。
# 一个脚本的最大执行时间为60s,如果超过这个时间,脚本将会被一个SIGKILL信号终止,之后重新执行


#通知型脚本:当sentinel有任何警告级别的事件发生时(比如说redis实例的主观失效和客观失效等等,将会去调用这个脚本,这时这个脚本应该通过邮件,SMS等方式去通知系统管理员关于系统不正常运行的信息。调用该脚本时,将传给脚本两个参数,一个是事件的类型,一个是事件的描述。如果sentine1.conf配置文件中配置了这个脚本路径,那么必须保证这个脚本存在于这个路径,并且是可执行的,否则sentine1无法正常启动成功。

#通知脚本
#shell编程
#sentinel notification-script  
sentinel notification-script mymaster /var/redis/notify.sh

# 客户端重新配置主节点参数脚本
# 当一个master由于failover而发生改变时,这个脚本将会被调用,通知相关的客户端关于master地址已经发生改变的信息。
# 以下参数将会在调用脚本时传给脚本:
#      
# 目前总是“failover”,
# 是“leader”或者"“observer”中的一个。
# 参数from-ip,from-port,to-ip,to-port是用来和旧的master和新的master(即旧的s7ave)通信的

#这个脚本应该是通用的,能被多次调用,不是针对性的。
# sentine7 client-reconfig-script  
sentine7l client-reconfig-script mymaster/var/redis/reconfig.sh #一般都是由运维来配置!

Redis缓存穿透和雪崩(面试常问)

服务的高可用问题

Redis缓存的使用,极大的提升了应用程序的性能和效率,特别是数据查询方面。但同时,它也带来了一些问题。其中,最要害的问题,就是数据的一致性问题,从严格意义上讲,这个问题无解。如果对数据的一致性要求很高,那么就不能使用缓存。
另外的一些典型问题就是,缓存穿透、缓存雪崩和缓存击穿。目前,业界也都有比较流行的解决方案。

Redis --- 超级详细_第22张图片

缓存穿透(查不到)

概念

缓存穿透的概念很简单,用户想要查询一个数据,发现redis内存数据库没有,也就是缓存没有命中,于
是向持久层数据库查询。发现也没有,于是本次查询失败。当用户很多的时候,缓存都没有命中(秒
杀!),于是都去请求了持久层数据库。这会给持久层数据库造成很大的压力,这时候就相当于出现了
缓存穿透。

解决方案

Redis --- 超级详细_第23张图片

缓存空对象

当存储层不命中后,即使返回的空对象也将其缓存起来,同时会设置一个过期时间,之后再访问这个数
据将会从缓存中获取,保护了后端数据源;

Redis --- 超级详细_第24张图片
但是这种方法会存在两个问题:
1、如果空值能够被缓存起来,这就意味着缓存需要更多的空间存储更多的键,因为这当中可能会有很多
的空值的键;
2、即使对空值设置了过期时间,还是会存在缓存层和存储层的数据会有一段时间窗口的不一致,这对于
需要保持一致性的业务会有影响。

缓存击穿(量太大,缓存过期)

概述

这里需要注意和缓存击穿的区别,缓存击穿,是指一个key非常热点,在不停的扛着大并发,大并发集中对这一个点进行访问,当这个key在失效的瞬间,持续的大并发就穿破缓存,直接请求数据库,就像在一个屏障上凿开了一个洞。
当某个key在过期的瞬间,有大量的请求并发访问,这类数据一般是热点数据,由于缓存过期,会同时访问数据库来查询最新数据,并且回写缓存,会导使数据库瞬间压力过大。

解决方案

设置热点数据永不过期

从缓存层面来看,没有设置过期时间,所以不会出现热点key过期后产生的问题。
加互斥锁
分布式锁∶使用分布式锁,保证对于每个key同时只有一个线程去查询后端服务,其他线程没有获得分布式锁的权限,因此只需要等待即可。这种方式将高并发的压力转移到了分布式锁,因此对分布式锁的考验很大。
Redis --- 超级详细_第25张图片

缓存雪崩

概念

缓存雪崩,是指在某一个时间段,缓存集中过期失效。Redis宕机!
产生雪崩的原因之一,比如在写本文的时候,马上就要到双十二零点,很快就会迎来一波抢购,这波商品时间比较集中的放入了缓存,假设缓存一个小时。那么到了凌晨一点钟的时候,这批商品的缓存就都过期了。而对这批商品的访问查询,都落到了数据库上,对于数据库而言,就会产生周期性的压力波峰。于是所有的请求都会达到存储层,存储层的调用量会暴增,造成存储层也会挂掉的情况。

Redis --- 超级详细_第26张图片
其实集中过期,倒不是非常致命,比较致命的缓存雪崩,是缓存服务器某个节点宕机或断网。因为自然
形成的缓存雪崩,一定是在某个时间段集中创建缓存,这个时候,数据库也是可以顶住压力的。无非就
是对数据库产生周期性的压力而已。而缓存服务节点的宕机,对数据库服务器造成的压力是不可预知
的,很有可能瞬间就把数据库压垮。

解决方案

redis高可用
这个思想的含义是,既然redis有可能挂掉,那我多增设几台redis,这样一台挂掉之后其他的还可以继续工作,其实就是搭建的集群。(异地多活!)
限流降级(在SpringCloud讲解过!)
这个解决方案的思想是,在缓存失效后,通过加锁或者队列来控制读数据库写缓存的线程数量。比如对某个key只允许一个线程查询数据和写缓存,其他线程等待。
数据预热
数据加热的含义就是在正式部署之前,我先把可能的数据先预先访问一遍,这样部分可能大量访问的数据就会加载到缓存中。在即将发生大并发访问前手动触发加载缓存不同的key,设置不同的过期时间,让缓存失效的时间点尽量均匀。

资料来源:

公众号:狂神说

B站地址:https://www.bilibili.com/video/BV1S54y1R7SB

你可能感兴趣的:(Redis,Nosql)