[root@iZ8vbhgs0bdip8zvxd6xjjZ redis-4.0.6]# ll
drwxr-xr-x 2 root root 4096 Nov 27 14:10 config
-rw-rw-r-- 1 root root 57765 Apr 3 2019 redis.conf
-rw-rw-r-- 1 root root 7606 Dec 5 2017 sentinel.conf
drwxrwxr-x 3 root root 4096 Nov 16 15:35 src
drwxrwxr-x 10 root root 4096 Dec 5 2017 tests
drwxrwxr-x 8 root root 4096 Dec 5 2017 utils
[root@iZ8vbhgs0bdip8zvxd6xjjZ redis-4.0.6]# cp redis.conf config
[root@iZ8vbhgs0bdip8zvxd6xjjZ redis-4.0.6]# cp redis.conf config
[root@iZ8vbhgs0bdip8zvxd6xjjZ redis-4.0.6]# cd config/
[root@iZ8vbhgs0bdip8zvxd6xjjZ config]# ll
total 64
-rw-r--r-- 1 root root 57765 Dec 15 14:51 redis.conf
[root@iZ8vbhgs0bdip8zvxd6xjjZ config]# cp redis.conf redis-6379.conf # 复制到redis-6379.conf
daemonize yes # 以守护进程运行redis
pidfile /var/run/redis_6379.pid 将进程文件加上6379
logfile "6379.log" # 将log文件命名为6379.log
#save 900 1 # 这三个在生产环境中不会这样用,关掉
#save 300 10
#save 60 10000
dbfilename dump-6379.rdb # 将rdb文件命名为dump-6379.rdb(主从复制是依赖于rdb的,如果主从用一个rdb文件,会有一些影响)
[root@iZ8vbhgs0bdip8zvxd6xjjZ config]# cp redis-6379.conf redis-6380.conf # 复制一个6380的配置文件
修改6380的配置文件
port 6380
pidfile /var/run/redis_6380.pid
logfile "6380.log"
dbfilename dump-6380.rdb
slaveof 127.0.0.1 6379
[root@iZ8vbhgs0bdip8zvxd6xjjZ config]# redis-server redis-6379.conf
[root@iZ8vbhgs0bdip8zvxd6xjjZ config]# ps -ef | grep redis-server
root 6549 1 0 Nov16 ? 00:19:58 redis-server 127.0.0.1:6379
root 28005 27740 0 14:26 pts/0 00:00:00 grep --color=auto redis-server
[root@iZ8vbhgs0bdip8zvxd6xjjZ config]# redis-cli # 打开客户端
127.0.0.1:6379> info replication # 查看复制区的信息
# Replication
role:master # 默认是主节点
connected_slaves:0 # 无从节点
master_replid:793ea29532c0cc6e58080ef322b5063c488bdb1c
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:0
second_repl_offset:-1
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0
[root@iZ8vbhgs0bdip8zvxd6xjjZ config]# redis-server redis-6380.conf
[root@iZ8vbhgs0bdip8zvxd6xjjZ config]# ps -ef | grep redis-server | grep 6380 # 查看是否启动成功
root 28015 1 0 14:31 ? 00:00:00 redis-server 127.0.0.1:6380
[root@iZ8vbhgs0bdip8zvxd6xjjZ config]# redis-cli -p 6380 info replication # 查看从节点信息
# Replication
role:slave # 角色是从节点
master_host:127.0.0.1 主节点
master_port:6379 主节点端口
master_link_status:up
master_last_io_seconds_ago:6
master_sync_in_progress:0
[root@iZ8vbhgs0bdip8zvxd6xjjZ config]# redis-cli
127.0.0.1:6379> set hello world
OK
127.0.0.1:6379> dbsize
(integer) 1
127.0.0.1:6379> exit
[root@iZ8vbhgs0bdip8zvxd6xjjZ config]# redis-cli -p 6380
127.0.0.1:6380> get hello
"world"
127.0.0.1:6380> set hello java # 该从节点只能做读操作
(error) READONLY You can't write against a read only slave.
[root@iZ8vbhgs0bdip8zvxd6xjjZ config]# redis-cli -p 6380
127.0.0.1:6380> slaveof no one
OK
[root@iZ8vbhgs0bdip8zvxd6xjjZ config]# redis-cli
127.0.0.1:6379> mset a b c d e f g h
OK
127.0.0.1:6379> dbsize
(integer) 6
[root@iZ8vbhgs0bdip8zvxd6xjjZ config]# redis-cli
127.0.0.1:6379> mset a b c d e f g h
OK
127.0.0.1:6379> dbsize
(integer) 6
127.0.0.1:6379> exit
[root@iZ8vbhgs0bdip8zvxd6xjjZ config]# redis-cli -p 6380
127.0.0.1:6380> dbsize
(integer) 2
127.0.0.1:6380> set abc6380 hello
OK
127.0.0.1:6380>
127.0.0.1:6380> slaveof 127.0.0.1 6379 # 再次设置为从节点
OK
127.0.0.1:6380> get abc6380 # 会对之前的数据进行清除
(nil)
什么是runid?
redis每次启动的时候都会随机生成一个runid,以保证redis的标识
[root@iZ8vbhgs0bdip8zvxd6xjjZ config]# redis-cli -p 6379 info server | grep run
run_id:2abbf0e2f01c0d4ba7bf02cd778af9883f2460d9
偏移量
[root@iZ8vbhgs0bdip8zvxd6xjjZ config]# redis-cli -p 6379 info replication
# Replication
role:master
connected_slaves:1
slave0:ip=127.0.0.1,port=6380,state=online,offset=7175,lag=0 # 从节点偏移量
master_replid:5bc6138e8f770cc3ec183c89bbabfe904a0a9bb9
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:7175 # 主节点偏移量
对于一个已经存了很多数据的master节点而言,slave节点需要复制master节点的数据,将当前master数据同步过来,master在这期间写的数据也要同步过来,这样才能实现数据真正同步的效果。那么redis是怎么实现这个功能呢?
首先将自己的Rdb文件同步给slave,在此期间它写入的命令会单独记录起来,然后当rdb文件加载完之后,他会通过偏移量的对比,将这期间写入的值同步给slave。
如果master和slave之间的网络发生抖动,那一段时间内数据就会发生丢失, 此时slave会向master发送一个命令,其中包含自己的offset和runid,那么master就会根据从节点的偏移量和自己的buffer进行比较,然后从上一次数据传输的断点开始继续传输数据。
主从结构中怎么处理故障转移?