- Redis主从复制+Redis哨兵模式+Redis群集模式
- 一、Redis主从复制
- 1、主从复制的作用
- 2、主从复制过程
- 3、搭建Redis主从复制
- 3.1 所有节点服务器安装redis
- 3.2 修改Redis配置文件(Master节点操作)
- 3.3 修改Redis配置文件(Slave节点操作)
- 3.4 验证主从效果
- 二、Redis哨兵模式
- 1、哨兵模式的作用
- 2、故障转移机制(工作原理)
- 3、主节点的选举
- 4、搭建Redis哨兵模式
- 4.1 修改 Redis 哨兵模式的配置文件(所有节点操作)
- 4.2 启动哨兵模式
- 4.3 查看哨兵信息
- 4.4 故障模拟
- 三、Redis群集模式
- 1、集群的作用
- 2、Redis集群的数据分片
- 3、Redis集群的主从复制模型
- 4、搭建Redis群集模式
- 4.1创建集群配置目录及文件
- 4.2开启群集功能
- 4.3启动redis节点
- 4.4启动集群
- 4.5测试群集
- 5、cluster集群节点扩容
- 5.1 在集群中操作
Redis主从复制+Redis哨兵模式+Redis群集模式
●主从复制:主从复制是高可用Redis的基础,哨兵和集群都是在主从复制基础上实现高可用的。主从复制主要实现了数据的多机备份,以及对于读操作的负载均衡和简单的故障恢复。缺陷:故障恢复无法自动化;写操作无法负载均衡;存储能力受到单机的限制。
●哨兵:在主从复制的基础上,哨兵实现了自动化的故障恢复。缺陷:写操作无法负载均衡;存储能力受到单机的限制;哨兵无法对从节点进行自动故障转移,在读写分离场景下,从节点故障会导致读服务不可用,需要对从节点做额外的监控、切换操作。
●集群:通过集群,Redis解决了写操作无法负载均衡,以及存储能力受到单机限制的问题,实现了较为完善的高可用方案。
一、Redis主从复制
主从复制,是指将一台Redis服务器的数据,复制到其他的Redis服务器。前者称为主节点(Master),后者称为从节点(Slave);数据的复制是单向的,只能由主节点到从节点。
默认情况下,每台Redis服务器都是主节点;且一个主节点可以有多个从节点(或没有从节点),但一个从节点只能有一个主节点。
1、主从复制的作用
●数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式。
●故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余。
●负载均衡:在主从复制的基础上,配合读写分离,可以由主节点提供写服务,由从节点提供读服务(即写Redis数据时应用连接主节点,读Redis数据时应用连接从节点),分担服务器负载;尤其是在写少读多的场景下,通过多个从节点分担读负载,可以大大提高Redis服务器的并发量。
●高可用基石:除了上述作用以外,主从复制还是哨兵和集群能够实施的基础,因此说主从复制是Redis高可用的基础。
2、主从复制过程
1.首次同步:当从节点要进行主从复制时,它会发送一个SYNC命令给主节点。主节点收到SYNC命令后,会执行BGSAVE命令来生成RDB快照文件,并在生成期间使用缓冲区记录所有写操作。
2.快照传输:当主节点完成BGSAVE命令并且快照文件准备好后,将快照文件传输给从节点。主节点将快照文件发送给从节点,并且在发送过程中,主节点会继续将新的写操作缓冲到内存中。
3.追赶复制:当从节点收到快照文件后,会加载快照文件并应用到自己的数据集中。一旦快照文件被加载,从节点会向主节点发送一个PSYNC命令,以便获取缓冲区中未发送的写操作。
4.增量复制:主节点收到PSYNC命令后,会将缓冲区中未发送的写操作发送给从节点,从节点会执行这些写操作,保证与主节点的数据一致性。此时,从节点已经追赶上了主节点的状态。
5.同步:从节点会继续监听主节点的命令,并及时执行主节点的写操作,以保持与主节点的数据同步。主节点会定期将自己的操作发送给从节点,以便从节点保持最新的数据状态
注意:当slave首次同步或者宕机后恢复时,会全盘加载,以追赶上大部队,即全量复制
3、搭建Redis主从复制
节点服务器 | IP地址 |
---|---|
Master节点 | 192.168.210.101 |
Slave1节点 | 192.168.210.102 |
Slave2节点 | 192.168.210.103 |
3.1 所有节点服务器安装redis
//环境准备
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
sed -i 's/enforcing/disabled/' /etc/selinux/config
#修改内核参数
vim /etc/sysctl.conf
vm.overcommit_memory = 1
net.core.somaxconn = 2048sysctl -p
//安装redis
yum install -y gcc gcc-c++ maketar zxvf /opt/redis-7.0.13.tar.gz -C /opt/cd /opt/redis-7.0.13
make
make PREFIX=/usr/local/redis install
#由于Redis源码包中直接提供了 Makefile 文件,所以在解压完软件包后,不用先执行 ./configure 进行配置,可直接执行 make 与 make install 命令进行安装。
#创建redis工作目录
mkdir /usr/local/redis/{conf,log,data}cp /opt/redis-7.0.13/redis.conf /usr/local/redis/conf/useradd -M -s /sbin/nologin redis
chown -R redis.redis /usr/local/redis/
#环境变量
vim /etc/profile
export PATH=$PATH:/usr/local/redis/bin #末尾增加一行source /etc/profile
//定义systemd服务管理脚本
vim /usr/lib/systemd/system/redis-server.service
[Unit]
Description=Redis Server
After=network.target[Service]
User=redis
Group=redis
Type=forking
TimeoutSec=0
PIDFile=/usr/local/redis/log/redis_6379.pid
ExecStart=/usr/local/redis/bin/redis-server /usr/local/redis/conf/redis.conf
ExecReload=/bin/kill -s HUP $MAINPID
ExecStop=/bin/kill -s QUIT $MAINPID
PrivateTmp=true[Install]
WantedBy=multi-user.target
3.2 修改Redis配置文件(Master节点操作)
vim /usr/local/redis/conf/redis.conf
bind 0.0.0.0 #87行,修改监听地址为0.0.0.0
protected-mode no #111行,将本机访问保护模式设置no
port 6379 #138行,Redis默认的监听6379端口
daemonize yes #309行,设置为守护进程,后台启动
pidfile /usr/local/redis/log/redis_6379.pid #341行,指定 PID 文件
logfile "/usr/local/redis/log/redis_6379.log" #354行,指定日志文件
dir /usr/local/redis/data #504行,指定持久化文件所在目录
requirepass abc123 #1037行,可选,设置redis密码
appendonly yes #1380行,开启AOFsystemctl restart redis-server.service
3.3 修改Redis配置文件(Slave节点操作)
Slave1
vim /usr/local/redis/conf/redis.conf
bind 0.0.0.0 #87行,修改监听地址为0.0.0.0
protected-mode no #111行,将本机访问保护模式设置no
port 6379 #138行,Redis默认的监听6379端口
daemonize yes #309行,设置为守护进程,后台启动
pidfile /usr/local/redis/log/redis_6379.pid #341行,指定 PID 文件
logfile "/usr/local/redis/log/redis_6379.log" #354行,指定日志文件
dir /usr/local/redis/data #504行,指定持久化文件所在目录
#requirepass abc123 #1037行,可选,设置redis密码
appendonly yes #1380行,开启AOF
replicaof 192.168.210.101 6379 #528行,指定要同步的Master节点IP和端口
#masterauth abc123 #535行,可选,指定Master节点的密码,仅在Master节点设置了requirepass
Slave2
#远程传输
scp 192.168.210.102:/usr/local/redis/conf/redis.conf /usr/local/redis/conf/redis.confsystemctl restart redis-server.service
3.4 验证主从效果
在Master节点上看日志:
tail -f /usr/local/redis/log/redis_6379.log
在Master节点上新建一个键:
redis-cli -h 192.168.210.101 -p 6379 -a abc123
keys *
set myname www
keys *
get myname
#在Slave1节点查看
redis-cli -h 192.168.210.102 -p 6379 -a abc123
keys *
get myname
#在Slave2节点查看
redis-cli -h 192.168.210.103 -p 6379 -a abc123
keys *
get myname
二、Redis哨兵模式
主从切换技术的方法是:当服务器宕机后,需要手动一台从机切换为主机,这需要人工干预,不仅费时费力而且还会造成一段时间内服务不可用。为了解决主从复制的缺点,就有了哨兵机制。
哨兵的核心功能:在主从复制的基础上,哨兵引入了主节点的自动故障转移。
1、哨兵模式的作用
●监控:哨兵会不断地检查主节点和从节点是否运作正常。
●自动故障转移:当主节点不能正常工作时,哨兵会开始自动故障转移操作,它会将失效主节点的其中一个从节点升级为新的主节点,并让其它从节点改为复制新的主节点。
●通知(提醒):哨兵可以将故障转移的结果发送给客户端。
哨兵结构由两部分组成,哨兵节点和数据节点:
●哨兵节点:哨兵系统由一个或多个哨兵节点组成,哨兵节点是特殊的redis节点,不存储数据。
●数据节点:主节点和从节点都是数据节点。
2、故障转移机制(工作原理)
1.由哨兵节点定期监控发现主节点是否出现了故障
每个哨兵节点每隔1秒会向主节点、从节点及其它哨兵节点发送一次ping命令做一次心跳检测。如果主节点在一定时间范围内不回复或者是回复一个错误消息,那么这个哨兵就会认为这个主节点主观下线了(单方面的)。当超过半数哨兵节点认为该主节点主观下线了,这样就客观下线了。
2.当主节点出现故障,此时哨兵节点会通过Raft算法(选举算法)实现选举机制共同选举出一个哨兵节点为leader,来负责处理主节点的故障转移和通知。所以整个运行哨兵的集群的数量不得少于3个节点。
3.由leader哨兵节点执行故障转移,过程如下:
●将某一个从节点升级为新的主节点,让其它从节点指向新的主节点;
●若原主节点恢复也变成从节点,并指向新的主节点;
●通知客户端主节点已经更换。
需要特别注意的是,客观下线是主节点才有的概念;如果从节点和哨兵节点发生故障,被哨兵主观下线后,不会再有后续的客观下线和故障转移操作。
3、主节点的选举
1.过滤掉不健康的(已下线的),没有回复哨兵 ping 响应的从节点。
2.选择配置文件中从节点优先级配置最高的。(replica-priority,默认值为100)
3.选择复制偏移量最大,也就是复制最完整的从节点。
哨兵的启动依赖于主从模式,所以须把主从模式安装好的情况下再去做哨兵模式
4、搭建Redis哨兵模式
Master节点:192.168.210.101
Slave1节点:192.168.210.102
Slave2节点:192.168.210.103
4.1 修改 Redis 哨兵模式的配置文件(所有节点操作)
cp /opt/redis-7.0.13/sentinel.conf /usr/local/redis/conf/
chown redis.redis /usr/local/redis/conf/sentinel.conf
vim /usr/local/redis/conf/sentinel.confprotected-mode no #6行,关闭保护模式port 26379 #10行,Redis哨兵默认的监听端口daemonize yes #15行,指定sentinel为后台启动pidfile /usr/local/redis/log/redis-sentinel.pid #20行,指定 PID 文件logfile "/usr/local/redis/log/sentinel.log" #25行,指定日志存放路径dir /usr/local/redis/data #54行,指定数据库存放路径sentinel monitor mymaster 192.168.210.101 6379 2 #73行,修改 指定该哨兵节点监控192.168.210.101:6379这个主节点,该主节点的名称是mymaster,最后的2的含义与主节点的故障判定有关:至少需要2个哨兵节点同意,才能判定主节点故障并进行故障转移
#sentinel auth-pass mymaster abc123 #76行,可选,指定Master节点的密码,仅在Master节点设置了requirepasssentinel down-after-milliseconds mymaster 3000 #114行,判定服务器down掉的时间周期,默认30000毫秒(30秒)sentinel failover-timeout mymaster 180000 #214行,同一个sentinel对同一个master两次failover之间的间隔时间(180秒)
slave1和slave2
scp 192.168.210.101:/usr/local/redis/conf/sentinel.conf /usr/local/redis/conf/sentinel.conf
4.2 启动哨兵模式
先启master,再启slave
cd /usr/local/redis/conf/
redis-sentinel sentinel.conf &
netstat -lntp | grep 6379
4.3 查看哨兵信息
redis-cli -h 192.168.210.101 -p 26379
info sentinel
# Sentinel
sentinel_masters:1
sentinel_tilt:0
sentinel_running_scripts:0
sentinel_scripts_queue_length:0
sentinel_simulate_failure_flags:0
master0:name=mymaster,status=ok,address=192.168.80.10:6379,slaves=2,sentinels=3
4.4 故障模拟
#在主节点添加VIP地址
ifconfig ens33:1 192.168.210.100/24
#编写故障转移脚本
cd /usr/local/redis/conf/
vim failover.sh
#!/bin/bash
#定义一个新的主节点
NEW_MASTERIP=$6
OLD_MASTERIP="$(ifconfig ens33 | awk 'NR==2{print $2}')"
VIP="192.168.210.200"if [ "$NEW_MASTERIP" = "$OLD_MASTERIP" ];thenifconfig ens33:1 ${VIP}/24exit 0
elseifconfig ens33:1 downexit 0
fiexit 1chmod +x failover.sh
chown redis.redis failover.sh
chown redis.redis sentinel.conf
#测试
./failover.sh a b c d e 192.168.210.101
ifconfig
#生成VIP./failover.sh a b c d e 192.168.210.103
ifconfig
#VIP没了
vim /usr/local/redis/conf/sentinel.confsentinel client-reconfig-script mymaster /usr/local/redis/conf/failover.sh #255行,master名称为mymaster,脚本路径为/usr/local/redis/conf/failover.sh
scp failover.sh sentinel.conf 192.168.210.102:`pwd`
scp failover.sh sentinel.conf 192.168.210.103:`pwd`
#修改两个从节点的属主和属组
cd /usr/local/redis/conf
chown redis. *
#重新启动哨兵模式
#查看哨兵模式进程号:
ps aux | grep sentinel
#杀死 Master 节点上redis-sentinel的进程号
killall redis-sentinel #Master节点上redis-sentinel的进程号
netstat -lntp | grep redis
#启动哨兵模式
cd /usr/local/redis/conf/
redis-sentinel sentinel.conf &
netstat -lntp | grep redis
#查看主节点日志文件,主节点在192.168.210.101服务器上
cd /usr/local/redis/log/
tail -f sentinel.log
#故障转移测试
netstat -lntp | grep redis
kill -9 6035
#把主进程redis-server杀掉,master故障#在slave1查看
ifconfig
#VIP转移到192.168.210.102服务器
#通过192.168.210.103服务器查看
redis-cli -h 192.168.210.103 -p 26379
info sentinelredis-cli -h 192.168.210.103 -p 6379 -a abc123
info replication#查看配置文件,发现配置项有所改变,主节点IP地址变成了新的主节点IP地址
vim /usr/local/redis/conf/redis.conf
#重新启动192.168.210.101服务器
systemctl restart redis-server
systemctl status redis-serverredis-cli -h 192.168.210.101 -p 6379 -a -abc123
info relication
#192.168.210.101变成了从节点vim redis.conf
#自动添加上了主从复制配置
三、Redis群集模式
集群,即Redis Cluster,是Redis 3.0开始引入的分布式存储方案。
集群由多组节点(Node)组成,Redis的数据分布在这些节点中。集群中的节点分为主节点和从节点:只有主节点负责读写请求和集群信息的维护;从节点只进行主节点数据和状态信息的复制。
1、集群的作用
(1)数据分区:数据分区(或称数据分片)是集群最核心的功能。
集群将数据分散到多个节点,一方面突破了Redis单机内存大小的限制,存储容量大大增加;另一方面每个主节点都可以对外提供读服务和写服务,大大提高了集群的响应能力。
Redis单机内存大小受限问题,在介绍持久化和主从复制时都有提及;例如,如果单机内存太大,bgsave和bgrewriteaof的fork操作可能导致主进程阻塞,主从环境下主机切换时可能导致从节点长时间无法提供服务,全量复制阶段主节点的复制缓冲区可能溢出。
(2)高可用:集群支持主从复制和主节点的自动故障转移(与哨兵类似);当任一节点发生故障时,集群仍然可以对外提供服务。
2、Redis集群的数据分片
Redis集群引入了哈希槽的概念
Redis集群有16384个哈希槽(编号0-16383)
集群的每组节点负责一部分哈希槽
每个Key通过CRC16校验后对16384取余来决定放置哪个哈希槽,通过这个值,去找到对应的插槽所对应的节点,然后直接自动跳转到这个对应的节点上进行存取操作
#以3个节点组成的集群为例:
节点A包含0到5460号哈希槽
节点B包含5461到10922号哈希槽
节点C包含10923到16383号哈希槽
3、Redis集群的主从复制模型
集群中具有A、B、C三个节点,如果节点B失败了,整个集群就会因缺少5461-10922这个范围的槽而不可以用。
为每个节点添加一个从节点A1、B1、C1整个集群便有三个Master节点和三个slave节点组成,在节点B失败后,集群选举B1位为的主节点继续服务。当B和B1都失败后,集群将不可用。
4、搭建Redis群集模式
redis的集群一般需要6个节点,3主3从。方便起见,这里所有节点在同一台服务器上模拟:
以端口号进行区分:3个主节点端口号:6001/6002/6003,对应的从节点端口号:6004/6005/6006。
方便起见,这里在同一台服务器上模拟。
服务器 | 主机名 | IP | 主端口 | 从端口 |
---|---|---|---|---|
Node1节点 | node | 192.168.210.101 | 6001 | 6004 |
Node2节点 | node | 192.168.210.101 | 6002 | 6005 |
Node3节点 | node | 192.168.210.101 | 6003 | 6006 |
4.1创建集群配置目录及文件
cd /usr/local/redis/![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/f0867c167ab340e5a9cc49dd5f9ea3d7.png)#准备6个子目录
mkdir -p redis-cluster/redis600{1..6}for i in {6001..6006}
do
cp /opt/redis-7.0.13/redis.conf /usr/local/redis/redis-cluster/redis600$i
done
4.2开启群集功能
#开启群集功能:
#其他5个文件夹的配置文件以此类推修改,注意6个端口都要不一样。
cd /usr/local/redis/redis-cluster/redis6001
vim redis.conf
#bind 127.0.0.1 #87行,注释掉bind项,默认监听所有网卡
protected-mode no #111行,关闭保护模式
port 6001 #138行,修改redis监听端口
daemonize yes #309行,设置为守护进程,后台启动
pidfile /usr/local/redis/log/redis_6001.pid #341行,指定 PID 文件
logfile "/usr/local/redis/log/redis_6001.log" #354行,指定日志文件
dir ./ #504行,指定持久化文件所在目录
appendonly yes #1379行,开启AOF
cluster-enabled yes #1576行,取消注释,开启群集功能
cluster-config-file nodes-6001.conf #1584行,取消注释,群集名称文件设置
cluster-node-timeout 15000 #1590行,取消注释群集超时时间设置
cd /usr/local/redis/redis-cluster
#把redis6001/redis.conf复制到其他5个子配置文件下
for i in {6002..6006}
do
\cp -f redis6001/redis.conf redis$i
done#修改端口号
#使用sed,可以直接替换端口号,不需要用vim
sed -i 's/6001/6002/' ../redis6002/redis.conf
#以6002为例,其余操作相同
4.3启动redis节点
#启动redis节点
分别进入那六个文件夹,执行命令:redis-server redis.conf ,来启动redis节点
cd /usr/local/redis/redis-cluster/redis6001
redis-server redis.conf#从 1 到 6 的范围循环,将 $d 替换成循环变量的值
#进入对应的目录并启动 Redis 服务器
for d in {1..6}
do
cd /usr/local/redis/redis-cluster/redis600$d
./redis-server redis.conf
doneps -ef | grep redis
4.4启动集群
#启动集群
redis-cli --cluster create 127.0.0.1:6001 127.0.0.1:6002 127.0.0.1:6003 127.0.0.1:6004 127.0.0.1:6005 127.0.0.1:6006 --cluster-replicas 1#六个实例分为三组,每组一主一从,前面的做主节点,后面的做从节点。下面交互的时候 需要输入 yes 才可以创建。
--replicas 1 表示每个主节点有1个从节点。
4.5测试群集
#测试群集
redis-cli -p 6001 -c #加-c参数,节点之间就可以互相跳转
127.0.0.1:6001> cluster slots #查看节点的哈希槽编号范围
127.0.0.1:6001> set myname zhangsan127.0.0.1:6001> cluster keyslot name #查看name键的槽编号redis-cli -p 6004 -c
127.0.0.1:6004> keys * #对应的slave节点也有这条数据,但是别的节点没有
5、cluster集群节点扩容
cd /usr/local/redis/redis-cluster
mkdir redis6007 redis6008
cp -a redis6006/ redis6007
cp -a redis6006/ redis6008
cd redis6007/
rm -rf appendonlydir/ dump.rdb nodes-6006.conf
sed -i "s/6006/6007/" redis.confcd redis6008/
sed -i "s/6006/6008/" redis.conf
#启动
for i in {6007,6008}
do
cd /usr/local/redis/redis-cluster/redis$i
./redis-server ./redis.conf
doneps aux | grep redis
5.1 在集群中操作
#把6007和6008两个节点加入到集群中
#先进入到一个节点
redis-cli -p 6001 -c
#查看集群状态
cluster nodes
#把两个节点加进去
cluster meet 127.0.0.1 6007
cluster meet 127.0.0.1 6008
#6007和6008都是master状态,没有hash槽
cluster nodes
quit
#进入到6008
redis-cli -p 6008 -c
cluster nodes
#让6008跟6007做对接,6008做6007的从
cluster replicate 825f1a79a81f163b4f3467723824bcd6a5d4b80c
cluster nodes
quit
#从6001节点中薅hash槽
redis-cli -p 6007 --cluster reshard 127.0.0.1:6001
1000
6007的id号
6001id号
done
yes
redis-cli -p 6007
cluster nodes