全面解析Redis主从复制
来源:51cto
时间:2023-01-20 15:56:04 106浏览 收藏
IT行业相对于一般传统行业,发展更新速度更快,一旦停止了学习,很快就会被行业所淘汰。所以我们需要踏踏实实的不断学习,精进自己的技术,尤其是初学者。今天golang学习网给大家整理了《全面解析Redis主从复制》,聊聊Redis、高可用、主从复制,我们一起来看看吧!
在前面的两篇文章中,分别介绍了 Redis 的内存模型和 Redis 的持久化,今天我们来深入学习 Redis 的主从复制。
在 Redis 的持久化中曾提到,Redis 高可用的方案包括持久化、主从复制(及读写分离)、哨兵和集群。
其中持久化侧重解决的是 Redis 数据的单机备份问题(从内存到硬盘的备份);而主从复制则侧重解决数据的多机热备。此外,主从复制还可以实现负载均衡和故障恢复。
我将从以下几个部分详细介绍 Redis 主从复制的方方面面:
主从复制概述
如何使用主从复制
主从复制的实现原理
应用中的问题
总结
主从复制概述
主从复制,是指将一台 Redis 服务器的数据,复制到其他的 Redis 服务器。前者称为主节点(master),后者称为从节点(slave);数据的复制是单向的,只能由主节点到从节点。
默认情况下,每台 Redis 服务器都是主节点;且一个主节点可以有多个从节点(或没有从节点),但一个从节点只能有一个主节点。
主从复制的作用主要包括:
数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式。
故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余。
负载均衡:在主从复制的基础上,配合读写分离,可以由主节点提供写服务,由从节点提供读服务(即写 Redis 数据时应用连接主节点,读 Redis 数据时应用连接从节点),分担服务器负载;尤其是在写少读多的场景下,通过多个从节点分担读负载,可以大大提高 Redis 服务器的并发量。
高可用基石:除了上述作用以外,主从复制还是哨兵和集群能够实施的基础,因此说主从复制是 Redis 高可用的基础。
如何使用主从复制
为了更直观的理解主从复制,在介绍其内部原理之前,先说明我们需要如何操作才能开启主从复制。
建立复制
需要注意,主从复制的开启,完全是在从节点发起的;不需要我们在主节点做任何事情。
从节点开启主从复制,有 3 种方式:
在从服务器的配置文件中加入:slaveof
。 redis-server 启动命令后加入 --slaveof
。 Redis 服务器启动后,直接通过客户端执行命令:slaveof
,则该 Redis 实例成为从节点。
上述 3 种方式是等效的,下面以客户端命令的方式为例,看一下当执行了 slaveof 后,Redis 主节点和从节点的变化。
实例
准备工作:启动两个节点。为了方便起见,实验所使用的主从节点是在一台机器上的不同 Redis 实例。
其中主节点监听 6379 端口,从节点监听 6380 端口;从节点监听的端口号可以在配置文件中修改:
启动后可以看到:
两个 Redis 节点启动后(分别称为6379节点和6380节点),默认都是主节点。
建立复制:此时在 6380 节点执行 slaveof 命令,使之变为从节点。
观察效果:下面验证一下,在主从复制建立后,主节点的数据会复制到从节点中。
首先在从节点查询一个不存在的 key:
然后在主节点中增加这个 key:
此时在从节点中再次查询这个 key,会发现主节点的操作已经同步至从节点:
然后在主节点删除这个 key:
此时在从节点中再次查询这个 key,会发现主节点的操作已经同步至从节点:
断开复制
通过 slaveof
需要注意的是,从节点断开复制后,不会删除已有的数据,只是不再接受主节点新的数据变化。
从节点执行 slaveof no one 后,打印日志如下图所示;可以看出断开复制后,从节点又变回为主节点。
主节点打印日志如下:
主从复制的实现原理
上面一节中,我们介绍了如何操作可以建立主从关系;本小节将介绍主从复制的实现原理。
主从复制过程大体可以分为 3 个阶段:
连接建立阶段(即准备阶段)
数据同步阶段
命令传播阶段
连接建立阶段
该阶段的主要作用是在主从节点之间建立连接,为数据同步做好准备。
步骤 1:保存主节点信息
从节点服务器内部维护了两个字段,即 masterhost 和 masterport 字段,用于存储主节点的 ip 和 port 信息。
需要注意的是,slaveof 是异步命令,从节点完成主节点 ip 和 port 的保存后,向发送 slaveof 命令的客户端直接返回 OK,实际的复制操作在这之后才开始进行。
这个过程中,可以看到从节点打印日志如下:
步骤 2:建立 Socket 连接
从节点每秒 1 次调用复制定时函数 replicationCron(),如果发现了有主节点可以连接,便会根据主节点的 ip 和 port,创建 socket 连接。
如果连接成功,则:
从节点:为该 socket 建立一个专门处理复制工作的文件事件处理器,负责后续的复制工作,如接收 RDB 文件、接收命令传播等。
主节点:接收到从节点的 socket 连接后(即 accept 之后),为该 socket 创建相应的客户端状态,并将从节点看做是连接到主节点的一个客户端,后面的步骤会以从节点向主节点发送命令请求的形式来进行。
这个过程中,从节点打印日志如下:
步骤 3:发送 Ping 命令
从节点成为主节点的客户端之后,发送 ping 命令进行***请求,目的是:检查 socket 连接是否可用,以及主节点当前是否能够处理请求。
从节点发送 ping 命令后,可能出现 3 种情况:
返回pong:说明 socket 连接正常,且主节点当前可以处理请求,复制过程继续。
超时:一定时间后从节点仍未收到主节点的回复,说明 socket 连接不可用,则从节点断开 socket 连接,并重连。
返回 pong 以外的结果:如果主节点返回其他结果,如正在处理超时运行的脚本,说明主节点当前无法处理命令,则从节点断开 socket 连接,并重连。
在主节点返回 pong 情况下,从节点打印日志如下:
步骤 4:身份验证
如果从节点中设置了 masterauth 选项,则从节点需要向主节点进行身份验证;没有设置该选项,则不需要验证。
从节点进行身份验证是通过向主节点发送 auth 命令进行的,auth 命令的参数即为配置文件中的 masterauth 的值。
如果主节点设置密码的状态,与从节点 masterauth 的状态一致(一致是指都存在,且密码相同,或者都不存在),则身份验证通过,复制过程继续;如果不一致,则从节点断开 socket 连接,并重连。
步骤 5:发送从节点端口信息
身份验证之后,从节点会向主节点发送其监听的端口号(前述例子中为 6380),主节点将该信息保存到该从节点对应的客户端的 slave_listening_port 字段中。
该端口信息除了在主节点中执行 info Replication 时显示以外,没有其他作用。
数据同步阶段
主从节点之间的连接建立以后,便可以开始进行数据同步,该阶段可以理解为从节点数据的初始化。
具体执行的方式是:从节点向主节点发送 psync 命令(Redis 2.8 以前是 sync 命令),开始同步。
数据同步阶段是主从复制最核心的阶段,根据主从节点当前状态的不同,可以分为全量复制和部分复制。
需要注意的是,在数据同步阶段之前,从节点是主节点的客户端,主节点不是从节点的客户端;而到了这一阶段及以后,主从节点互为客户端。
原因在于:在此之前,主节点只需要响应从节点的请求即可,不需要主动发请求,而在数据同步阶段和后面的命令传播阶段,主节点需要主动向从节点发送请求(如推送缓冲区中的写命令),才能完成复制。
命令传播阶段
数据同步阶段完成后,主从节点进入命令传播阶段;在这个阶段主节点将自己执行的写命令发送给从节点,从节点接收命令并执行,从而保证主从节点数据的一致性。
在命令传播阶段,除了发送写命令,主从节点还维持着心跳机制:PING 和 REPLCONF ACK。
由于心跳机制的原理涉及部分复制,因此将在介绍了部分复制的相关内容后单独介绍该心跳机制。
延迟与不一致:需要注意的是,命令传播是异步的过程,即主节点发送写命令后并不会等待从节点的回复;因此实际上主从节点之间很难保持实时的一致性,延迟在所难免。
数据不一致的程度,与主从节点之间的网络状况、主节点写命令的执行频率、以及主节点中的 repl-disable-tcp-nodelay 配置等有关。
repl-disable-tcp-nodelay no:该配置作用于命令传播阶段,控制主节点是否禁止与从节点的 TCP_NODELAY;默认 no,即不禁止 TCP_NODELAY。
当设置为 yes 时,TCP 会对包进行合并从而减少带宽,但是发送的频率会降低,从节点数据延迟增加,一致性变差;具体发送频率与 Linux 内核的配置有关,默认配置为 40ms。
当设置为 no 时,TCP 会立马将主节点的数据发送给从节点,带宽增加但延迟变小。
一般来说,只有当应用对 Redis 数据不一致的容忍度较高,且主从节点之间网络状况不好时,才会设置为 yes;多数情况使用默认值 no。
数据同步阶段:全量复制和部分复制
在 Redis 2.8 以前,从节点向主节点发送 sync 命令请求同步数据,此时的同步方式是全量复制。
在 Redis 2.8 及以后,从节点可以发送 psync 命令请求同步数据,此时根据主从节点当前状态的不同,同步方式可能是全量复制或部分复制。后文介绍以 Redis 2.8 及以后版本为例。
全量复制:用于初次复制或其他无法进行部分复制的情况,将主节点中的所有数据都发送给从节点,是一个非常重型的操作。
部分复制:用于网络中断等情况后的复制,只将中断期间主节点执行的写命令发送给从节点,与全量复制相比更加高效。
需要注意的是,如果网络中断时间过长,导致主节点没有能够完整地保存中断期间执行的写命令,则无法进行部分复制,仍使用全量复制。
全量复制
Redis 通过 psync 命令进行全量复制的过程如下:
从节点判断无法进行部分复制,向主节点发送全量复制的请求;或从节点发送部分复制的请求,但主节点判断无法进行全量复制;具体判断过程需要在讲述了部分复制原理后再介绍。
主节点收到全量复制的命令后,执行 bgsave,在后台生成 RDB 文件,并使用一个缓冲区(称为复制缓冲区)记录从现在开始执行的所有写命令
主节点的 bgsave 执行完成后,将 RDB 文件发送给从节点;从节点首先清除自己的旧数据,然后载入接收的 RDB 文件,将数据库状态更新至主节点执行 bgsave 时的数据库状态。
主节点将前述复制缓冲区中的所有写命令发送给从节点,从节点执行这些写命令,将数据库状态更新至主节点的***状态
如果从节点开启了 AOF,则会触发 bgrewriteaof 的执行,从而保证 AOF 文件更新至主节点的***状态。
下面是执行全量复制时,主从节点打印的日志;可以看出日志内容与上述步骤是完全对应的。
主节点的打印日志如下:
从节点打印日志如下图所示:
其中,有几点需要注意:
从节点接收了来自主节点的 89260 个字节的数据。
从节点在载入主节点的数据之前要先将老数据清除。
从节点在同步完数据后,调用了 bgrewriteaof。
通过全量复制的过程可以看出,全量复制是非常重型的操作:
主节点通过 bgsave 命令 fork 子进程进行 RDB 持久化,该过程是非常消耗 CPU、内存(页表复制)、硬盘 IO 的;关于 bgsave 的性能问题,可以参考深入学习Redis(2):持久化。
主节点通过网络将 RDB 文件发送给从节点,对主从节点的带宽都会带来很大的消耗。
从节点清空老数据、载入新 RDB 文件的过程是阻塞的,无法响应客户端的命令;如果从节点执行 bgrewriteaof,也会带来额外的消耗。
部分复制
由于全量复制在主节点数据量较大时效率太低,因此 Redis 2.8 开始提供部分复制,用于处理网络中断时的数据同步。
部分复制的实现,依赖于三个重要的概念:
复制偏移量:主节点和从节点分别维护一个复制偏移量(offset),代表的是主节点向从节点传递的字节数。
主节点每次向从节点传播 N 个字节数据时,主节点的 offset 增加 N;从节点每次收到主节点传来的 N 个字节数据时,从节点的 offset 增加 N。
offset 用于判断主从节点的数据库状态是否一致:如果二者 offset 相同,则一致;如果 offset 不同,则不一致,此时可以根据两个 offset 找出从节点缺少的那部分数据。
例如,如果主节点的 offset 是 1000,而从节点的 offset 是 500,那么部分复制就需要将 offset 为 501-1000 的数据传递给从节点。
而 offset 为 501-1000 的数据存储的位置,就是下面要介绍的复制积压缓冲区。
复制积压缓冲区:复制积压缓冲区是由主节点维护的、固定长度的、先进先出(FIFO)队列,默认大小 1MB。
当主节点开始有从节点时创建,其作用是备份主节点最近发送给从节点的数据。注意,无论主节点有一个还是多个从节点,都只需要一个复制积压缓冲区。
在命令传播阶段,主节点除了将写命令发送给从节点,还会发送一份给复制积压缓冲区,作为写命令的备份;除了存储写命令,复制积压缓冲区中还存储了其中的每个字节对应的复制偏移量(offset)。
由于复制积压缓冲区定长且是先进先出,所以它保存的是主节点最近执行的写命令;时间较早的写命令会被挤出缓冲区。
由于该缓冲区长度固定且有限,因此可以备份的写命令也有限,当主从节点 offset 的差距过大超过缓冲区长度时,将无法执行部分复制,只能执行全量复制。
反过来说,为了提高网络中断时部分复制执行的概率,可以根据需要增大复制积压缓冲区的大小(通过配置repl-backlog-size)。
例如如果网络中断的平均时间是 60s,而主节点平均每秒产生的写命令(特定协议格式)所占的字节数为 100KB,则复制积压缓冲区的平均需求为 6MB。
保险起见,可以设置为 12MB,来保证绝大多数断线情况都可以使用部分复制。
从节点将 offset 发送给主节点后,主节点根据 offset 和缓冲区大小决定能否执行部分复制:
如果 offset 偏移量之后的数据,仍然都在复制积压缓冲区里,则执行部分复制。
如果 offset 偏移量之后的数据已不在复制积压缓冲区中(数据已被挤出),则执行全量复制。
服务器运行 ID(runid):每个 Redis 节点(无论主从),在启动时都会自动生成一个随机 ID(每次启动都不一样),由 40 个随机的十六进制字符组成;runid 用来唯一识别一个 Redis 节点。
通过 info Server 命令,可以查看节点的 runid:
主从节点初次复制时,主节点将自己的 runid 发送给从节点,从节点将这个 runid 保存起来;当断线重连时,从节点会将这个 runid 发送给主节点。
主节点根据 runid 判断能否进行部分复制:
如果从节点保存的 runid 与主节点现在的 runid 相同,说明主从节点之前同步过,主节点会继续尝试使用部分复制(到底能不能部分复制还要看 offset 和复制积压缓冲区的情况)。
如果从节点保存的 runid 与主节点现在的 runid 不同,说明从节点在断线前同步的 Redis 节点并不是当前的主节点,只能进行全量复制。
psync 命令的执行:在了解了复制偏移量、复制积压缓冲区、节点运行 id 之后,本节将介绍 psync 命令的参数和返回值,从而说明 psync 命令执行过程中,主从节点是如何确定使用全量复制还是部分复制的。
psync 命令的执行过程可以参见下图:
首先,从节点根据当前状态,决定如何调用 psync 命令:
如果从节点之前未执行过 slaveof 或最近执行了 slaveof no one,则从节点发送命令为 psync ? -1,向主节点请求全量复制。
如果从节点之前执行了 slaveof,则发送命令为 psync
,其中 runid 为上次复制的主节点的 runid,offset 为上次复制截止时从节点保存的复制偏移量。
主节点根据收到的psync命令,及当前服务器状态,决定执行全量复制还是部分复制:
如果主节点版本低于 Redis 2.8,则返回 -ERR 回复,此时从节点重新发送 sync 命令执行全量复制。
如果主节点版本够新,且 runid 与从节点发送的 runid 相同,且从节点发送的 offset 之后的数据在复制积压缓冲区中都存在,则回复 +CONTINUE,表示将进行部分复制,从节点等待主节点发送其缺少的数据即可。
如果主节点版本够新,但是 runid 与从节点发送的 runid 不同,或从节点发送的 offset 之后的数据已不在复制积压缓冲区中(在队列中被挤出了),则回复 +FULLRESYNC
,表示要进行全量复制。
其中 runid 表示主节点当前的 runid,offset 表示主节点当前的 offset,从节点保存这两个值,以备使用。
部分复制演示:在下面的演示中,网络中断几分钟后恢复,断开连接的主从节点进行了部分复制;为了便于模拟网络中断,本例中的主从节点在局域网中的两台机器上。
网络中断一段时间后,主节点和从节点都会发现失去了与对方的连接(关于主从节点对超时的判断机制,后面会有说明)。
此后,从节点便开始执行对主节点的重连,由于此时网络还没有恢复,重连失败,从节点会一直尝试重连。
主节点日志如下:
从节点日志如下:
网络恢复后,从节点连接主节点成功,并请求进行部分复制,主节点接收请求后,二者进行部分复制以同步数据。
主节点日志如下:
从节点日志如下:
命令传播阶段:心跳机制
在命令传播阶段,除了发送写命令,主从节点还维持着心跳机制:PING 和 REPLCONF ACK。心跳机制对于主从复制的超时判断、数据安全等有作用。
主->从:PING
每隔指定的时间,主节点会向从节点发送 PING 命令,这个 PING 命令的作用,主要是为了让从节点进行超时判断。
PING 发送的频率由 repl-ping-slave-period 参数控制,单位是秒,默认值是 10s。
关于该 PING 命令究竟是由主节点发给从节点,还是相反,有一些争议;因为在 Redis 的官方文档中,对该参数的注释中说明是从节点向主节点发送 PING 命令,如下图所示:
但是根据该参数的名称(含有 ping-slave),以及代码实现,我认为该 PING 命令是主节点发给从节点的。
相关代码如下:
从->主:REPLCONF ACK
在命令传播阶段,从节点会向主节点发送 REPLCONF ACK 命令,频率是每秒 1 次;命令格式为:REPLCONF ACK {offset},其中 offset 指从节点保存的复制偏移量。
REPLCONF ACK 命令的作用包括:
实时监测主从节点网络状态:该命令会被主节点用于复制超时的判断。此外,在主节点中使用 info Replication,可以看到其从节点的状态中的 lag 值,代表的是主节点上次收到该 REPLCONF ACK 命令的时间间隔。
在正常情况下,该值应该是 0 或 1,如下图所示:
检测命令丢失:从节点发送了自身的 offset,主节点会与自己的 offset 对比,如果从节点数据缺失(如网络丢包),主节点会推送缺失的数据(这里也会利用复制积压缓冲区)。
注意,offset 和复制积压缓冲区,不仅可以用于部分复制,也可以用于处理命令丢失等情形;区别在于前者是在断线重连后进行的,而后者是在主从节点没有断线的情况下进行的。
辅助保证从节点的数量和延迟:Redis 主节点中使用 min-slaves-to-write 和 min-slaves-max-lag 参数,来保证主节点在不安全的情况下不会执行写命令;所谓不安全,是指从节点数量太少,或延迟过高。
例如 min-slaves-to-write 和 min-slaves-max-lag 分别是 3 和 10,含义是如果从节点数量小于 3 个,或所有从节点的延迟值都大于 10s,则主节点拒绝执行写命令。
而这里从节点延迟值的获取,就是通过主节点接收到 REPLCONF ACK 命令的时间来判断的,即前面所说的 info Replication 中的 lag 值。
应用中的问题
读写分离及其中的问题
在主从复制基础上实现的读写分离,可以实现 Redis 的读负载均衡。
由主节点提供写服务,由一个或多个从节点提供读服务(多个从节点既可以提高数据冗余程度,也可以***化读负载能力);在读负载较大的应用场景下,可以大大提高 Redis 服务器的并发量。
下面介绍在使用 Redis 读写分离时,需要注意的问题。
延迟与不一致问题
前面已经讲到,由于主从复制的命令传播是异步的,延迟与数据的不一致不可避免。
如果应用对数据不一致的接受程度程度较低,可能的优化措施包括:
优化主从节点之间的网络环境(如在同机房部署)。
监控主从节点延迟(通过 offset)判断,如果从节点延迟过大,通知应用不再通过该从节点读取数据。
使用集群同时扩展写负载和读负载等。
在命令传播阶段以外的其他情况下,从节点的数据不一致可能更加严重,例如连接在数据同步阶段,或从节点失去与主节点的连接时等。
从节点的 slave-serve-stale-data 参数便与此有关:它控制这种情况下从节点的表现;如果为 yes(默认值),则从节点仍能够响应客户端的命令,如果为 no,则从节点只能响应 info、slaveof 等少数命令。
该参数的设置与应用对数据一致性的要求有关;如果对数据一致性要求很高,则应设置为 no。
数据过期问题
在单机版 Redis 中,存在两种删除策略:
惰性删除:服务器不会主动删除数据,只有当客户端查询某个数据时,服务器判断该数据是否过期,如果过期则删除。
定期删除:服务器执行定时任务删除过期数据,但是考虑到内存和 CPU 的折中(删除会释放内存,但是频繁的删除操作对 CPU 不友好),该删除的频率和执行时间都受到了限制。
在主从复制场景下,为了主从节点的数据一致性,从节点不会主动删除数据,而是由主节点控制从节点中过期数据的删除。
由于主节点的惰性删除和定期删除策略,都不能保证主节点及时对过期数据执行删除操作,因此,当客户端通过 Redis 从节点读取数据时,很容易读取到已经过期的数据。
在 Redis 3.2 中,从节点在读取数据时,增加了对数据是否过期的判断:如果该数据已过期,则不返回给客户端;将 Redis 升级到 3.2 可以解决数据过期问题。
故障切换问题
在没有使用哨兵的读写分离场景下,应用针对读和写分别连接不同的 Redis 节点。
当主节点或从节点出现问题而发生更改时,需要及时修改应用程序读写 Redis 数据的连接;连接的切换可以手动进行,或者自己写监控程序进行切换,但前者响应慢、容易出错,后者实现复杂,成本都不算低。
总结:在使用读写分离之前,可以考虑其他方法增加 Redis 的读负载能力:如尽量优化主节点(减少慢查询、减少持久化等其他情况带来的阻塞等)提高负载能力;使用 Redis 集群同时提高读负载能力和写负载能力等。
如果使用读写分离,可以使用哨兵,使主从节点的故障切换尽可能自动化,并减少对应用程序的侵入。
复制超时问题
主从节点复制超时是导致复制中断的最重要的原因之一,本小节单独说明超时问题,下一小节说明其他会导致复制中断的问题。
超时判断意义
在复制连接建立过程中及之后,主从节点都有机制判断连接是否超时,其意义在于:
如果主节点判断连接超时,其会释放相应从节点的连接,从而释放各种资源,否则无效的从节点仍会占用主节点的各种资源(输出缓冲区、带宽、连接等)。
此外连接超时的判断可以让主节点更准确的知道当前有效从节点的个数,有助于保证数据安全(配合前面讲到的 min-slaves-to-write 等参数)。
如果从节点判断连接超时,则可以及时重新建立连接,避免与主节点数据长期的不一致。
判断机制
主从复制超时判断的核心,在于 repl-timeout 参数,该参数规定了超时时间的阈值(默认 60s),对于主节点和从节点同时有效。
主从节点触发超时的条件分别如下:
主节点:每秒1次调用复制定时函数 replicationCron(),在其中判断当前时间距离上次收到各个从节点 REPLCONF ACK 的时间,是否超过了 repl-timeout 值,如果超过了则释放相应从节点的连接。
从节点:从节点对超时的判断同样是在复制定时函数中判断。
从节点的基本逻辑是:
如果当前处于连接建立阶段,且距离上次收到主节点的信息的时间已超过 repl-timeout,则释放与主节点的连接。
如果当前处于数据同步阶段,且收到主节点的 RDB 文件的时间超时,则停止数据同步,释放连接。
如果当前处于命令传播阶段,且距离上次收到主节点的 PING 命令或数据的时间已超过 repl-timeout 值,则释放与主节点的连接。
主从节点判断连接超时的相关源代码如下:
/* Replication cron function, called 1 time per second. */ void replicationCron(void) { static long long replication_cron_loops = 0; /* Non blocking connection timeout? */ if (server.masterhost && (server.repl_state == REDIS_REPL_CONNECTING || slaveIsInHandshakeState()) && (time(NULL)-server.repl_transfer_lastio) > server.repl_timeout) redisLog(REDIS_WARNING,"Timeout connecting to the MASTER..."); undoConnectWithMaster(); /* Bulk transfer I/O timeout? */ if (server.masterhost && server.repl_state == REDIS_REPL_TRANSFER && (time(NULL)-server.repl_transfer_lastio) > server.repl_timeout) redisLog(REDIS_WARNING,"Timeout receiving bulk data from MASTER... If the problem persists try to set the 'repl-timeout' parameter in redis.conf to a larger value."); replicationAbortSyncTransfer(); /* Timed out master when we are an already connected slave? */ if (server.masterhost && server.repl_state == REDIS_REPL_CONNECTED && (time(NULL)-server.master->lastinteraction) > server.repl_timeout) redisLog(REDIS_WARNING,"MASTER timeout: no data nor PING received..."); freeClient(server.master); //此处省略无关代码…… /* Disconnect timedout slaves. */ if (listLength(server.slaves)) { listIter li; listNode *ln; listRewind(server.slaves,&li); while((ln = listNext(&li))) { redisClient *slave = ln->value; if (slave->replstate != REDIS_REPL_ONLINE) continue; if (slave->flags & REDIS_PRE_PSYNC) continue; if ((server.unixtime - slave->repl_ack_time) > server.repl_timeout) redisLog(REDIS_WARNING, "Disconnecting timedout slave: %s", replicationGetSlaveName(slave)); freeClient(slave); //此处省略无关代码……
需要注意的坑
下面介绍与复制阶段连接超时有关的一些实际问题:
数据同步阶段:在主从节点进行全量复制 bgsave 时,主节点需要首先 fork 子进程将当前数据保存到 RDB 文件中,然后再将 RDB 文件通过网络传输到从节点。
如果 RDB 文件过大,主节点在 fork 子进程+保存 RDB 文件时耗时过多,可能会导致从节点长时间收不到数据而触发超时。
此时从节点会重连主节点,然后再次全量复制,再次超时,再次重连……这是个悲伤的循环。
为了避免这种情况的发生,除了注意 Redis 单机数据量不要过大,另一方面就是适当增大 repl-timeout 值,具体的大小可以根据 bgsave 耗时来调整。
命令传播阶段:如前所述,在该阶段主节点会向从节点发送 PING 命令,频率由 repl-ping-slave-period 控制;该参数应明显小于 repl-timeout 值(后者至少是前者的几倍)。
否则,如果两个参数相等或接近,网络抖动导致个别 PING 命令丢失,此时恰巧主节点也没有向从节点发送数据,则从节点很容易判断超时。
慢查询导致的阻塞:如果主节点或从节点执行了一些慢查询(如 keys * 或者对大数据的 hgetall 等),导致服务器阻塞;阻塞期间无法响应复制连接中对方节点的请求,可能导致复制超时。
复制中断问题
主从节点超时是复制中断的原因之一,除此之外,还有其他情况可能导致复制中断,其中最主要的是复制缓冲区溢出问题。
复制缓冲区溢出
前面曾提到过,在全量复制阶段,主节点会将执行的写命令放到复制缓冲区中。
该缓冲区存放的数据包括了以下几个时间段内主节点执行的写命令:
bgsave 生成 RDB 文件。
RDB 文件由主节点发往从节点。
从节点清空老数据并载入 RDB 文件中的数据。
当主节点数据量较大,或者主从节点之间网络延迟较大时,可能导致该缓冲区的大小超过了限制,此时主节点会断开与从节点之间的连接。
这种情况可能引起全量复制→复制缓冲区溢出导致连接中断→重连→全量复制→复制缓冲区溢出导致连接中断……的循环。
复制缓冲区的大小由 client-output-buffer-limit slave {hard limit} {soft limit} {soft seconds} 配置,默认值为 client-output-buffer-limit slave 256MB 64MB 60。
其含义是:如果 buffer 大于 256MB,或者连续 60s 大于 64MB,则主节点会断开与该从节点的连接。该参数是可以通过 config set 命令动态配置的(即不重启 Redis 也可以生效)。
当复制缓冲区溢出时,主节点打印日志如下所示:
需要注意的是,复制缓冲区是客户端输出缓冲区的一种,主节点会为每一个从节点分别分配复制缓冲区;而复制积压缓冲区则是一个主节点只有一个,无论它有多少个从节点。
各场景下复制的选择及优化技巧
在介绍了 Redis 复制的种种细节之后,现在我们可以来总结一下,在下面常见的场景中,何时使用部分复制,以及需要注意哪些问题。
***次建立复制
此时全量复制不可避免,但仍有几点需要注意:如果主节点的数据量较大,应该尽量避开流量的高峰期,避免造成阻塞。
如果有多个从节点需要建立对主节点的复制,可以考虑将几个从节点错开,避免主节点带宽占用过大。
此外,如果从节点过多,也可以调整主从复制的拓扑结构,由一主多从结构变为树状结构(中间的节点既是其主节点的从节点,也是其从节点的主节点)。
但使用树状结构应该谨慎:虽然主节点的直接从节点减少,降低了主节点的负担,但是多层从节点的延迟增大,数据一致性变差;且结构复杂,维护相当困难。
主节点重启
主节点重启可以分为两种情况来讨论,一种是故障导致宕机,另一种则是有计划的重启。
主节点宕机:主节点宕机重启后,runid 会发生变化,因此不能进行部分复制,只能全量复制。
实际上在主节点宕机的情况下,应进行故障转移处理,将其中的一个从节点升级为主节点,其他从节点从新的主节点进行复制;且故障转移应尽量的自动化,后面文章将要介绍的哨兵便可以进行自动的故障转移。
安全重启 debug reload:在一些场景下,可能希望对主节点进行重启,例如主节点内存碎片率过高,或者希望调整一些只能在启动时调整的参数。
如果使用普通的手段重启主节点,会使得 runid 发生变化,可能导致不必要的全量复制。
为了解决这个问题,Redis 提供了 debug reload 的重启方式:重启后,主节点的 runid 和 offset 都不受影响,避免了全量复制。
如下图所示,debug reload 重启后 runid 和 offset 都未受影响:
但 debug reload 是一柄双刃剑:它会清空当前内存中的数据,重新从 RDB 文件中加载,这个过程会导致主节点的阻塞,因此也需要谨慎。
从节点重启
从节点宕机重启后,其保存的主节点的 runid 会丢失,因此即使再次执行 slaveof,也无法进行部分复制。
网络中断
如果主从节点之间出现网络问题,造成短时间内网络中断,可以分为多种情况讨论。
***种情况:网络问题时间极为短暂,只造成了短暂的丢包,主从节点都没有判定超时(未触发 repl-timeout);此时只需要通过 REPLCONF ACK 来补充丢失的数据即可。
第二种情况:网络问题时间很长,主从节点判断超时(触发了 repl-timeout),且丢失的数据过多,超过了复制积压缓冲区所能存储的范围;此时主从节点无法进行部分复制,只能进行全量复制。
为了尽可能避免这种情况的发生,应该根据实际情况适当调整复制积压缓冲区的大小;此外及时发现并修复网络中断,也可以减少全量复制。
第三种情况:介于前述两种情况之间,主从节点判断超时,且丢失的数据仍然都在复制积压缓冲区中;此时主从节点可以进行部分复制。
复制相关的配置
这一节总结一下与复制有关的配置,说明这些配置的作用、起作用的阶段,以及配置方法等。
通过了解这些配置,一方面加深对 Redis 复制的了解,另一方面掌握这些配置的方法,可以优化 Redis 的使用,少走坑。
配置大致可以分为主节点相关配置、从节点相关配置以及与主从节点都有关的配置,下面分别说明。
与主从节点都有关的配置
首先介绍最特殊的配置,它决定了该节点是主节点还是从节点:
slaveof
:Redis 启动时起作用;作用是建立复制关系,开启了该配置的 Redis 服务器在启动后成为从节点。该注释默认注释掉,即 Redis 服务器默认都是主节点。 repl-timeout 60:与各个阶段主从节点连接超时判断有关,见前面的介绍。
主节点相关配置
repl-diskless-sync no:作用于全量复制阶段,控制主节点是否使用 diskless 复制(无盘复制)。
所谓 diskless 复制,是指在全量复制时,主节点不再先把数据写入 RDB 文件,而是直接写入 slave 的 socket 中,整个过程中不涉及硬盘。
diskless 复制在磁盘 IO 很慢而网速很快时更有优势。需要注意的是,截至 Redis 3.0,diskless 复制处于实验阶段,默认是关闭的。
repl-diskless-sync-delay 5:该配置作用于全量复制阶段,当主节点使用 diskless 复制时,该配置决定主节点向从节点发送之前停顿的时间,单位是秒;只有当 diskless 复制打开时有效,默认 5s。
之所以设置停顿时间,是基于以下两个考虑:
向 slave 的 socket 的传输一旦开始,新连接的 slave 只能等待当前数据传输结束,才能开始新的数据传输。
多个从节点有较大的概率在短时间内建立主从复制。
client-output-buffer-limit slave 256MB 64MB 60:与全量复制阶段主节点的缓冲区大小有关,见前面的介绍。
repl-disable-tcp-nodelay no:与命令传播阶段的延迟有关,见前面的介绍。
masterauth
repl-ping-slave-period 10:与命令传播阶段主从节点的超时判断有关,见前面的介绍。
repl-backlog-size 1mb:复制积压缓冲区的大小,见前面的介绍。
repl-backlog-ttl 3600:当主节点没有从节点时,复制积压缓冲区保留的时间,这样当断开的从节点重新连进来时,可以进行全量复制;默认 3600s。如果设置为 0,则永远不会释放复制积压缓冲区。
min-slaves-to-write 3 与 min-slaves-max-lag 10:规定了主节点的最小从节点数目,及对应的***延迟,见前面的介绍。
从节点相关配置
slave-serve-stale-data yes:与从节点数据陈旧时是否响应客户端命令有关,见前面的介绍。
slave-read-only yes:从节点是否只读;默认是只读的。由于从节点开启写操作容易导致主从节点的数据不一致,因此该配置尽量不要修改。
单机内存大小限制
在深入学习 Redis 持久化一文中,讲到了 fork 操作对 Redis 单机内存大小的限制。实际上在 Redis 的使用中,限制单机内存大小的因素非常之多。
下面总结一下在主从复制中,单机内存过大可能造成的影响:
切主:当主节点宕机时,一种常见的容灾策略是将其中一个从节点提升为主节点,并将其他从节点挂载到新的主节点上,此时这些从节点只能进行全量复制。
如果 Redis 单机内存达到 10GB,一个从节点的同步时间在几分钟的级别;如果从节点较多,恢复的速度会更慢。
如果系统的读负载很高,而这段时间从节点无法提供服务,会对系统造成很大的压力。
从库扩容:如果访问量突然增大,此时希望增加从节点分担读负载,如果数据量过大,从节点同步太慢,难以及时应对访问量的暴增。
缓冲区溢出:(1)和(2)都是从节点可以正常同步的情形(虽然慢),但是如果数据量过大,导致全量复制阶段主节点的复制缓冲区溢出,从而导致复制中断。
则主从节点的数据同步会全量复制→复制缓冲区溢出导致复制中断→重连→全量复制→复制缓冲区溢出导致复制中断……的循环。
超时:如果数据量过大,全量复制阶段主节点 fork+ 保存 RDB 文件耗时过大,从节点长时间接收不到数据触发超时。
主从节点的数据同步同样可能陷入全量复制→超时导致复制中断→重连→全量复制→超时导致复制中断……的循环。
此外,主节点单机内存除了绝对量不能太大,其占用主机内存的比例也不应过大:***只使用 50%-65% 的内存,留下 30%-45% 的内存用于执行 bgsave 命令和创建复制缓冲区等。
info Replication
在 Redis 客户端通过 info Replication 可以查看与复制相关的状态,对于了解主从节点的当前状态,以及解决出现的问题都会有帮助。
主节点:
从节点:
对于从节点,上半部分展示的是其作为从节点的状态,从 connectd_slaves 开始,展示的是其作为潜在的主节点的状态。
info Replication 中展示的大部分内容在文章中都已经讲述,这里不再详述。
总结
下面回顾一下本文的主要内容:
主从复制的作用:宏观的了解主从复制是为了解决什么样的问题,即数据冗余、故障恢复、读负载均衡等。
主从复制的操作:即 slaveof 命令。
主从复制的原理:主从复制包括了连接建立阶段、数据同步阶段、命令传播阶段。
其中数据同步阶段,有全量复制和部分复制两种数据同步方式;命令传播阶段,主从节点之间有 PING 和 REPLCONF ACK 命令互相进行心跳检测。
应用中的问题:包括读写分离的问题(数据不一致问题、数据过期问题、故障切换问题等)、复制超时问题、复制中断问题等。
然后总结了主从复制相关的配置,其中 repl-timeout、client-output-buffer-limit slave 等对解决 Redis 主从复制中出现的问题可能会有帮助。
主从复制虽然解决或缓解了数据冗余、故障恢复、读负载均衡等问题,但其缺陷仍很明显:故障恢复无法自动化;写操作无法负载均衡;存储能力受到单机的限制。
这些问题的解决,需要哨兵和集群的帮助,我将在后面的文章中介绍,欢迎关注。
到这里,我们也就讲完了《全面解析Redis主从复制》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于redis的知识点!
-
286 收藏
-
117 收藏
-
185 收藏
-
426 收藏
-
134 收藏
-
342 收藏
-
361 收藏
-
159 收藏
-
164 收藏
-
221 收藏
-
156 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 507次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 497次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 484次学习