最新 Redis 常见热门面试题进阶指南

JAVA herman 69浏览
公告:“业余草”微信公众号提供免费CSDN下载服务(只下Java资源),关注业余草微信公众号,添加作者微信:codedq,发送下载链接帮助你免费下载!
本博客日IP超过2000,PV 3000 左右,急需赞助商。
极客时间所有课程通过我的二维码购买后返现24元微信红包,请加博主新的微信号:codedq,之前的微信号好友位已满,备注:返现
受密码保护的文章请关注“业余草”公众号,回复关键字“0”获得密码
所有面试题(java、前端、数据库、springboot等)一网打尽,请关注文末小程序
视频教程免费领

redis数据类型剖析

string

sds数据结构,采用空间预分配和惰性空间释放来提升效率,缺点就是耗费内存。

struct sdshdr {
    int len; //长度
    int free; //剩余空间
    char buf[]; //字符串数组
};

「空间预分配」:当一个sds被修改成更长的 buf 时,除了会申请本身需要的内存外,还会额外申请一些空间。
「惰性空间」:当一个sds被修改成更短的 buf 时,并不会把多余的内存还回去,而是会保存起来。
「总结」:这种设计的核心思想就是空间换时间,只要 free还剩余足够的空间时,下次 string 变长的时候,不会像系统申请内存。

list

链表被广泛用于实现 Redis 的各种功能,比如列表键、发布与订阅、慢查询、监视器等。

struct listNode {
    struct listNode * prev; //前置节点
    struct listNode * next; //后置节点
    void * value;//节点的值
};

hash

不仅仅是数据类型为hash的才用到hash结构,redis本身所有的k、v就是一个大hash。例如我们经常用的set key value,key就是hash的键,value就是hash的值。

struct dict {
    ...
    dictht ht[2]; //哈希表
    rehashidx == -1 //rehash使用,没有rehash的时候为-1
}

「rehash」:每个字典有两个hash表,一个平时使用,一个rehash的时候使用。rehash是渐进式的,分别是由以下触发:

  • serveCron定时检测迁移。
  • 每次kv变更的时候(新增、更新)的时候顺带rehash。

「hash冲突」:采用单向链表的方式解决hash冲突,新的冲突元素会被放到链表的表头。

zset

有序集合可以被用于一些排序场景,底层采用跳跃表实现。

struct zskiplistNode {
    struct zskiplistLevel {
        struct zskiplistNode *forward;//前进指针
        unsigned int span;//跨度
    } level[];
    struct zskiplistNode *backward;//后退指针
    double score;//分值
    robj *obj; // 成员对象
};

「层高」:每个跳跃表节点的层高在1-32之间。
「跳跃」:通过层来实现跨节点跳跃,达到加速访问的效果。

zset有序集合底层
zset有序集合底层

比如 o1 到 o3 只需要通过 L4 层跨度为 2 实现跨节点跳跃。

set

set 的底层为了实现内存的节约,会根据集合的类型和数目而采用不同的数据结构来保存,当集合的元素都是整型且数量不多时会采用整数集合来存储。

struct intset {
    uint32_t encoding;//编码方式
    uint32_t length;//集合包含的元素数量
    int8_t contents[];//保存元素的数组
};

整数集合底层实现为数组,在添加元素的时候,根据需要会修改这个数组的类型(比如 int16 升级成 int32)。

redis为什么那么快

在大型应用架构中,redis 作为缓存层已经是非常普遍的现象,其中一个原因就是它非常快。

内存型数据库

redis 是内存型数据库,大多数操作都是基于内存的。

特殊的数据结构

我们知道 redis 的数据结构是有特殊设计的,比如 string 类型采用 sds 数据结构来存储,每次 string 的空间不够时,总是尝试去申请更多的内存,每次 string 空间多余的时候,也不是把多余的空间还给系统,通过这种方式来减少内存的申请达到一种快,有序集合采用的跳跃表可以通过不同的层来达到加速访问节点的效果也是快速的体现,渐进式 rehash 也是高效快速的体现。

单线程

redis 的主体模式还是单线程的,除了一些持久化相关的 fork。单线程相比多线程的好处就是锁的问题,上下文切换的问题。官方也解释到:redis 的性能不在 cpu,而在内存。

IO多路复用

IO 多路复用就是多个 TCP 连接复用一个线程,如果采用多个请求起多个进程或者多个个线程的模式还是比较重的,除了要考虑到进程或者线程的切换之外,还要用户态去遍历检查事件是否到达,效率低下。redis 支持「select」「poll」「epoll」模式的多路复用,默认情况下,会选择系统支持的最好的模式。通过 IO 多路复用技术,用户态不用去遍历fds集合,通过内核通知告诉事件的到达,效率比较高。

pipeline的好处是什么

客户端执行一条命令的过程大概是这样:
「命令请求->命令排队->命令执行->结果返回。」 这个过程我们叫做RTT(Round trip time)往返时间。在实际工作中,我们可能遇到这样一种场景:我们需要不停的 incr 一个 key,但是这个 key 不能永久存在,得加一个过期时间,于是我们的程序大概长这样:

incr key #一次RTT
expire key time #一次RTT
#总共两次RTT

这样我们发现整个过程需要两个 RTT。一般我们生产环境都是用的连接池,在连接池有足够的连接的时候,可能我还不需要去创建新的连接,这样就省了 TCP 三次握手的开销,当需要创建新的连接的时候,这时候还要去建立连接,整个开销又上去了。针对这种批处理命令,为了减少往返的开销,于是管道pipeline诞生了,通过管道我们可以把两条命令合并发送:

# 伪代码
pipeline->send(incr key)
pipeline->send(expire key time)
pipeline->execute() #一次RTT
#总共一次RTT

这样就可以将 2 次的 RTT 减少成 1 次 RTT。

管道pipeline
管道pipeline

「节约资源」:pipeline 可以将多次的请求合并成一次请求,减少网络开销,节约时间。但是通过 pipeline 合并的请求不能太多,太多的话,可能占了大量的带宽,造成网络拥堵,同时太多的命令会造成客户端等待时间较长,推荐将大批量的命令拆成多个小批的 pipeline。
「非原子性」:pipeline 并非是原子性的,假设你通过 pipeline 发了incr keyexpire key两条指令。但是 redis 执行 expire 的时候失败了,这样相当于你的 key 没有设置过期时间,这一点是需要注意的。

redis协议是什么样的

redis 自己设计了一套序列化协议 RESP,主要有容易实现、解析快、可读性好几个特点。协议的每部分都是\r\n结束的,可以通过特殊符号来区分出数据的类型:

  • 单行回复:以+号开头。
  • 错误回复:以-号开头。
  • 整数回复:以:号开头。
  • 批量回复:以$号开头。
  • 多条批量回复:以*号开头。

因为通过 redis 客户端看不出来效果,我这里用 nc 这个 tcp 工具来模拟下。

nc 127.0.0.1 6379 #连接上redis
#发起ping
ping 
+PONG

#发送一个不存在的命令
hi
-ERR unknown command 'hi'

#age+1
incr age
:1

#get
$2
go

#mget
mget name1 name2
*2
$2
go
$4
java

上面的每行都是\r\n结束的,Redis 协议的实现性能可以和二进制协议的实现性能相媲美, 并且由于 Redis 协议的简单性,大部分语言都可以实现这个协议。

redis是如何保证原子性的

什么原子性?程序在执行过程中,要么全部都执行,要么全部都不执行,不可能执行了一半,滞留了一半。我们知道 redis 是 IO 多路复用模型,即一个线程来处理多个 TCP 连接,这样的好处就是,即使客户端并发请求,也得排队处理,一定程度上解决了多线程模型带的并发问题,但是单线程模型并不能解决原子性问题。
还是以 incr 和 expire 为例:

命令1:incr key
命令2:expire key time

不管你是 pipeline 还是非 pipeline,这样两条操作你都是无法保持原子性的,命令 1 的失败不影响命令 2 的执行,命令2的执行也不影响命令 1 的结果。

支持原子操作的命令

假设现在有两个客户端希望修改某个值,它们操作的流程是先获取原先的值,再更新「新值=老值+1」 但是由于时间顺序的问题,可能它们是这样执行的顺序:

# key的value刚开始是10
客户端1:get key #10
客户端2:get key #10
客户端1:set key 11 #11
客户端2:set key 11 #11

会发现客户端 2 更新的值丢失了,原因在于客户端 1 在获取到 key 的值之后,没来的及更新,这时客户端 2 的 get 进来了,导致客户端 2 获取的是老值。
对于这种场景,可以用 redis 的「incr」来替代,incr 是原子的操作的,它把get 和 set 合并在一起,再利用 redis 的单线程特性,第一个 incr 进来的时候,第二个 incr 一定是等待的,这样就不会存在更新丢失的问题。类型的原子命令还有「decr」「setnx」

事务+监控

结合 watch 监控和事务也可以解决,每个客户端可以通过 watch 来监控自己即将要更新的 key,这样在事务更新的时候,如果发现自己监控的 key 被修改了,那么拒绝执行,事务执行失败,这样就不会存在更新覆盖的问题。watch 的本质还是乐观锁,当客户端执行 watch 的时候,实际上是 watch 的 key 会维护一个客户端的队列,这样就知道这个 key 被哪些客户端监视了。当其中的一个客户端执行完毕之后,那么它会从这个队列中移除,并且会把这个列表中剩余的所有客户端的CLIENT_DIRTY_CAS标识打开,这样剩余的客户端在执行 exec 的时候,发现自己的CLIENT_DIRTY_CAS已经被打开,那么就会拒绝执行。

客户端1 > watch key
OK
客户端1 > MULTI
OK
客户端1 > SET key 100
QUEUED
客户端1 > EXEC
1) OK
客户端1 > GET key
"100"
客户端2 > watch key
OK
客户端2 > MULTI
OK
客户端2 > SET key 101
QUEUED
客户端2 > EXEC
(nil)
客户端2 > GET key
"100"

客户端 1 和客户端 2 都尝试来修改 key 的值,然而因为客户端 1 先更新了。那么客户端 2 在更新的时候通过 watch 发现值已经被修改了,就会拒绝执行,返回个「nil」

lua脚本

redis 在 2.6 之后开始支持开发者编写 lua 脚本传到 redis 中,使用 lua 脚本的好处是:

  1. 减少网络开销,通过 lua 脚本可以一次性的将多个请求合并成一个请求。
  2. 原子操作,redis 将 lua 脚本作为一个整体,执行过程中,不会被其他命令打断,不会出现竞态问题。
  3. 复用,客户端发送的 lua 脚本会永远存在 redis 服务中。

我们来看看 lua 是如何保证原子性的,假设现在有个逻辑,我们要先判断 key 不存在,再设置 key,存在的话,就不设置了。
「不用lua」

#伪代码
客户端1:if key not exist
客户端2:if key not exist
客户端1:set key 10086
客户端2:set key 10086 #多余的

由于上述不具备原子性,导致客户端 2 多执行了一次。
「使用lua」

127.0.0.1:6379> eval "if redis.call('get', KEYS[1]) == false then redis.call('set', KEYS[1], ARGV[1]) return 0 else return 1 end" 1 key "10086"
(integer) 0 #执行成功
127.0.0.1:6379> get key1
"10086"

使用了 lua 之后,首先 redis 本身会把整个 lua 脚本当成一个整体,运行期间不会收到其他命令的干扰。使用 lua 脚本之后,我们可以编写自己的复杂业务来保证原子性。当 lua 脚本很长时,在命令行里执行不太优雅,redis 提供 load lua 的命令,导入 lua 脚本文件,导入成功后会返回一个 sha1 编码的 id,后期通过这个 id 可以反复执行。

生产环境大key如何删除

当生产环境去删除一个大 key 的时候,可能会造成线上阻塞,这是一个非常危险的操作,可以根据实际情况选择以下方法:

  1. 根据业务场景判断,低峰期去删除可以有效降低损失。
  2. 对于 hset 可以通过 scan 分批获取删除,对于 set 和 zset 可以每次取一批数据删除,对于 list 直接 pop 删除。
  3. redis4.0 支持 unlink 异步删除,不阻塞主线程。

缓存穿透、击穿、雪崩如何解决

高性能架构中,我们一般会在 db 层之上加个 cache 层,因为 cache 的数据是在内存中的,这样当大量数据访问的时候,如果 cache 的命中率高,那么就可以阻挡大量的请求打到我们的db中去,起到保护 db 和加速访问的作用。如果 cache miss 了,那么当数据库中读到数据的时候,我们也会写入一份到缓存中去,这样下次请求的时候也会从缓存获得数据。如果某个 cache 一直 miss,或者某个 cache miss 之后突然并发进来大量请求以及缓存在某一瞬间大面积失效咋办?

缓存穿透、击穿、雪崩如何解决
缓存穿透、击穿、雪崩如何解决

缓存穿透

当我们访问一个非法的数据的时候(缓存和数据库都不存在的数据),每次先去缓存获取,获取不到,然后去数据库获取,依然获取不到,比如user_id=-1这种(一个用户的 id 是不可能为负数的)。出现这种情况,每次必然是要去数据库请求一次不存在的数据,这时候因为没有数据,所以也不会写入缓存,下一次同样的请求还是会重蹈覆辙。

缓存穿透
缓存穿透

「解决」

  • 前端校验:某些情况,比如用户在自己的个人中心页面通过商品订单 ID来搜索,前端可以判断下对于非法 ID(如负数)的订单直接拦截。
  • 后端校验:在接口的开始处,校验一些常规的正负数,比如负数的user_id直接返回报错。
  • 空值缓存:有时候我们也对于数据库查不到的数据,也做个缓存,这个缓存的时间可以短一些。
  • hash 拦截:hash 校验使用一些数据量不多的场景,比如店铺的商品信息,上架一个商品的时候,我们商品做下hash标记(map[“商品ID”]=1),这样如果请求的商品 id 都不在 hash 表里,直接返回了。
  • 位图标记:类似 hash,但是使用比特位来标记。
  • 布隆过滤器:当我们关心的数据量非常大的时候 hash和位图那得多大,不现实,这时可以用布隆过滤器,布隆过滤器不像hash和位图那样可以做到百分百的拦截,但是可以做到绝大部分的非法的拦截。布隆过滤器的思想就是在有限的空间里,通过多个hash函数来定位一条数据,当只要有一个hash没中,那么一定是不存在的,但是当多个hash全中的话,也不一定是存在的,这一点是需要注意的。

缓存击穿

热点数据在某一时刻缓存过期,然后突然大量请求打到 db 中,这时如果 db 扛不住,可能就挂了,引起线上连锁反应。

缓存击穿
缓存击穿

「解决」

  • 分布式锁:分布式系统中,并发请求的问题,第一时间想到的就是分布式锁,只放一个请求进去(可以用redis setnx、zookeeper等等)
  • 单机锁:也并不一定非得需要分布式锁,单机锁在集群节点不多的情况下也是ok的(golang 可以用 synx.mutex、java 可以用 JVM 锁),保证一台机器上的所有请求中只有一个能进去。假设你有 10 台机器,那么最多也就同时 10 个并发打到db,对数据库来说影响也不大。相比分布式锁来说开销要小点,但是如果你的机器多达上千,还是慎重考虑。
  • 二级缓存:当我们的第一级缓存失效后,也可以设置一个二级缓存,二级缓存也可以拦截下,二级缓存可以是内存缓存也可以是其他缓存数据库。
  • 热点数据不过期:某些时候,热点数据就不要过期。

缓存雪崩

当某一些时刻,突然大量缓存失效,所有的请求都打到了 db,与缓存击穿不同的是,雪崩是大量的 key,击穿是一个 key,这时 db 的压力也不言而喻。

「解决」

  • 缓存时间随机些:对于所有的缓存,尽量让每个 key 的过期时间随机些,降低同时失效的概率
  • 上锁:根据场景上锁,保护 db
  • 二级缓存:同缓存击穿
  • 热点数据不过期:同缓存击穿
缓存雪崩
缓存雪崩

redis的持久化方案有哪些

rdb

「save」:SAVE 是手动保存方式,它会使 redis 进程阻塞,直至 RDB 文件创建完毕,创建期间所有的命令都不能处理。

127.0.0.1:6379> save
OK
27004:M 31 Jul 15:06:11.761 * DB saved on disk

「bgsave」:与 SAVE 命令不同的是 BGSAVE,BGSAVE 可以不阻塞 redis 进程,通过 BGSAVE redis 会 fork 一个子进程去执行 rdb 的保存工作,主进程继续执行命令。

127.0.0.1:6379> BGSAVE
Background saving started
27004:M 31 Jul 15:07:08.665 * Background saving terminated with success

BGSAVE 执行期间与其他一些 IO 命令会存在一些互斥:

  • BGSAVE 期间,所有的 SAVE 命令会被拒绝执行,避免父子进程同时执行,造成一些竞争问题。
  • BGSAVE 期间,如果有新的 BGSAVE 那么也就被拒绝,也是竞争问题。
  • BGSAVE 期间,如果来了个 BGREWRITEAOF,那么 BGREWRITEAOF 会被延迟到BGSAVE之后再执行。
  • 如果 BGREWRITEAOF 在执行,那么 BGSAVE 命令会被拒绝。

BGSAVE 与 BGREWRITEAOF 都是由两个子进程处理,目标也是不同的文件,本身没什么冲突,主要是两个都可能要大量的 IO,这对服务本身来说不是很友好。❞

用户可以通过配置,让每隔一段时间来执行 bgsave:

save 900 1 #900s内至少修改了1次
save 300 10 #300s内至少修改了10次
save 60 10000 #60s内至少修改了10000次

以上条件只要满足了一个就可以执行 bgsave。
这里涉及到两个参数来记录次数和时间,分别是「dirty」计数器和「lastsave」

  • dirty 计数器记录距离上一次成功执行 SAVE 命令或者 BGSAVE 命令之后,服务器对数据库状态(服务器中的所有数据库)进行了多少次修改(包括写入、删除、更新等操作)。
  • lastsave 属性是一个 UNIX 时间戳,记录了服务器上一次成功执行 SAVE 命令或者 BGSAVE 命令的时间。

以上两个指标是基于 redis 的 serverCron 来完成的,serverCron 是一个定期执行的程序,默认每隔 100ms 执行一次。每次 serverCron 执行的时候会遍历所有的条件,然后检查计数是否 ok,时间是否 ok,都ok的话就执行一次 bgsave,并且记录最新的 lastsave 时间,重置 dirty 为 0。

「导入」:redis 没有专门的用户导入的命令,redis 在启动的时候会检测是否有 RDB 文件,有的话,就自动导入。

27004:M 31 Jul 14:46:51.793 # Server started, Redis version 3.2.12
27004:M 31 Jul 14:46:51.793 * DB loaded from disk: 0.000 seconds
27004:M 31 Jul 14:46:51.793 * The server is now ready to accept connections on port 6379

DB loaded from disk 就是载入 rdb 的描述,服务在载入 RDB 期间是阻塞的。当然如果也开启了 AOF,那么就会优先使用 AOF 来恢复,只有在服务器未开启 AOF 的时候,才会选择 RDB 来恢复数据,导入的时候也会自动过滤过期的 key。

aof

AOF 就是一个命令追加的模式,假设执行了:

RPUSH list 1 2 3 4
RPOP list
LPOP list
LPUSH list 1

最终以 redis 协议方式存储:

*2$6SELECT$10*6$5RPUSH$4list$11$12$13$14*2$4RPOP$4list*2$4LPOP$4list*3$5LPUSH$4list$11

aof 先是写到aof_buf的缓冲区中,redis 提供三种方案将 buf 的缓冲区的数据刷到磁盘,当然也是 serverCron 来根据策略处理的。

appendfsync always
appendfsync everysec
appendfsync no
  1. 「always」:将aof_buf缓冲区所有的内容写入并同步到 AOF 文件。
  2. 「everysec」:将aof_buf缓冲区所有的内容写入 AOF 文件,如果上次同步的时间和这次的超过 1s,那么再次执行同步,并且这个同步是由一个线程完成的。
  3. 「no」:将aof_buf写入 AOF 文件,但是不执行同步,何时同步由操作系统决定。

在现代操作系统中,为了提高文件写入的效率,当我们调用 write 写入一个数据的时候,操作系统并不会立刻写入磁盘,而是放在一个缓冲区里,当缓冲区满了或者到了一定时间后,才会真正的刷入到磁盘中。这样存在一定风险,就是内存的数据没等到刷入磁盘的时候,机器宕机了,那么数据就丢失了,于是操作系统也提供了同步函数 fsync,让用户可以自己决定什么时候同步。❞

「AOF重写」:随着命令越来越多,aof 的体积会越来越大,例如:

incr num
incr num
incr num
incr num

执行 4 条 incr num,num 的最终的值是 4,然后可以直接用一条set num 4代替,这样存储就节省了很多。重写也不是分析现有 aof,重写就是从数据库读取现有的 key,然后尽量用一条命令代替。并不是所有的都可以用一条命令代替,例如 sadd 每次最多只能 add 64 个,如果超过 64 个就要分批了。
「创建新的aof -> 遍历数据库 ->遍历所有的key->忽略过期的->写入aof。」

「fork」:aof 的重写涉及大量的 IO,在当前进程里去做肯定不合适,理所当然也是 fork 一个子进程来做,不使子线程的原因是避免一些锁的问题。 使用子进程需要考虑的问题就是在子进程写入的时候,主进程还在源源不断的接收新的请求,那么针对这种情况 redis 设置了一个 aof 重写缓冲区,缓冲区在子进程创建的时候开始使用,那么在新的请求来的时候,除了写入 aof 缓冲区外,还要写入 aof 重写缓冲区,此过程不阻塞。 那么在子进程重写完了之后,会发信号给主进程,主进程收到信号后,会把重写缓冲区的数据再次同步给新的 aof 文件,然后 rename 新的 aof,原子的覆盖老的 aof,完成重写,这个过程是阻塞的。

「何时执行重写」

auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
  1. 100 代表当前 AOF 文件是上次重写的两倍时候才重写
  2. 文件最小重写大小 默认 64mb

「导入」: redis 启动的时候,会创建一个伪客户端,然后执行 aof 文件里面的命令。

redis 过期键是如何删除的

  • 惰性删除:每当我们获取一个 key 的时候,先去检查下它的过期时间是否已到,如果已经过期,那么执行删除。
  • 定期删除:redis 对于带过期时间的和不带过期时间的 key 分了两个字典,serverCron 每次执行的时候会从带过期时间的字典里随机取一部分 key 检查,如果过期则删除。

rdb和aof对过期键是如何处理的

「rdb」:对于主从模式来说,主服务器载入 rdb 文件的时候会自动过滤过期的key,从服务器载入 rdb 文件的时候不会过滤过期的 key,因为主从在进行同步数据的时候,从会清空自己的数据。
「aof」:当服务器以 AOF 持久化模式运行时,如果数据库中的某个键已经过期,但它还没有被惰性删除或者定期删除,那么 AOF 文件不会因为这个过期键而产生任何影响。当过期键被惰性删除或者定期删除之后,程序会向 AOF 文件追加(append)一条 DEL 命令,来显式地记录该键已被删除。aof 重写的时候会自动过滤过期的 key。

主从模式下过期键是怎样的

一般主从模式下,主负责提供写,从负责提供读。从服务器在执行客户端发送的读命令时,即使碰到过期键也不会将过期键删除,而是继续像处理未过期的键一样来处理过期键。主服务器在删除一个过期键之后,会显式地向所有从服务器发送一个 DEL 命令,告知从服务器删除这个过期键。

redis的淘汰策略是怎样的

淘汰策略是一个灵活的配置选项,一般根据业务来选择合适的淘汰策略,当然是我们进行 add key 或者 update 一个更大的 key,这时候如果内存不足会触发我们设置的淘汰策略。

  • noeviction:当内存使用超过配置的时候会返回错误,不会驱逐任何键
  • allkeys-lru:通过LRU算法驱逐最久没有使用的键
  • volatile-lru:通过LRU算法从设置了过期时间的键集合中驱逐最久没有使用的键
  • allkeys-random:从所有key中随机删除
  • volatile-random:从过期键的集合中随机驱逐
  • volatile-ttl:从配置了过期时间的键中驱逐马上就要过期的键
  • volatile-lfu:从所有配置了过期时间的键中驱逐使用频率最少的键
  • allkeys-lfu:从所有键中驱逐使用频率最少的键

serverCron是干嘛的

redis内部有定期执行的函数servercron,它默认每隔 100ms 执行一次,它的作用主要是以下:

  • 「更新服务器时间缓存」:redis有不少功能需要获取当前时间,每次获取时间的话要进行一次系统调用,对于一些对时间实时性要求不是很高的场景,redis通过缓存来减少系统调用的次数。实时性要求不高的主要有:打印日志、更新服务器的LRU时钟、决定是否执行持久化任务、计算服务器上线时间。对于设置设置过期时间、添加慢查询日志还是会系统调用获取实时时间的。
  • 「更新LRU时钟」:redis中有个lruclock属性用于保存服务器的lru时钟,每个对象也有一个lru时钟,通过服务器的lru减去对象的lru,可以得出对象的空转时间,serverCron默认会以每10s一次更新一次lruclock,所以这也是一个模糊值。
  • 「更新每秒执行的次数」:这是一个估算值,每次执行的时候,会根据上一次抽样时间和服务器的当前时间,以及上一次抽样的已执行命令数量和服务器当前的已执行命令数量,计算出两次调用之间,服务器平均每毫秒处理了多少个命令请求,然后将这个平均值乘以1000,这就得到了服务器在一秒钟内能处理多少个命令请求的估计值。
INFO stats
...
instantaneous_ops_per_sec:1
  • 「更新内存峰值」:每次执行的时候会查看当前内存使用量,然后和上一次的峰值对比,判断是否需要更新峰值。
INFO stats
...
used_memory_peak:2026832
used_memory_peak_human:1.93M
  • 「处理SIGTERM信号」:收到SIGTERM信号的时候,redis会打个标识,然后等待serverCron到来的时候,根据标识状态处理一些在shutdown之前的工作,比如持久化。
  • 「处理客户端资源」:如果客户端和服务之间很长时间没通信了,那么就会释放这个客户端。如果输入缓冲区的大小超过了一定长度,那么就会释放当前客户端的输入缓冲区,然后重建一个默认大小的输入缓冲区,防止输入缓冲区占用较大的内存。同时也会关闭输出缓冲区超过限制的客户端。
  • 「延迟执行aof重写」:在服务器执行BGSAVE的时候,如果BGREWRITEAOF也到来了,那么BGREWRITEAOF会被延迟到BGSAVE执行完毕之后,这时会记个标记aof_rewrite_scheduled,每次serverCron执行的时候会检查当前是否有BGSAVE或BGREWRITEAOF在执行,如果没有且aof_rewrite_scheduled已标记,那么就会执行BGREWRITEAOF。
  • 「持久化」:serverCron每次执行的时候,会判断当前是否在进行持久化,如果没有的话,会判断aof重写是否被延迟,延迟的话,执行aof重写,没有的话,会检查rdb条件是否满足,满足的话执行rdb持久化,否则判断aof重写条件是否满足,满足的话执行aof重写。在开启aof的时候,会根据设置看需不需要把aof缓冲区的数据写入到aof文件中。
  • 「记录执行次数」:serverCron每次执行的时候,都会记录下执行的次数。

slave断线重连后会发生什么

当 slave 执行 slave of 之后,会发个 sync 命令给 master,master 在收到 sync 之后,开始在后台执行 bgsave,同时这期间的写记录在缓冲区中,当bgsave完成之后,master会把rdb发给从,slave 根据 rdb 加载数据,同时master把缓冲区里的变更也发给slave,后续 master 的变更记录都会通过命令传播的形式传给slave。然而如果在某个时刻因为网络原因slave和manster断线了,这时候如果slave连接上了,会发生什么?断线期间的变更怎么办?

  • 在redis2.8以前,哪怕slave断线1s,只要连上之后发送sync,那么master就会无脑执行bgsave,然后发送给slave,slave再重新load rdb,可以看出整个过程还是非常低效的,本身bgsave就非常耗费IO,发送数据还耗费带宽。
  • 从redis2.8开始,支持增量复制,如果断线了且后来重连上了,在一些情况下,支持把断线期间丢失的变更单独同步,不用同步整个rdb文件。实现部分同步的关键主要是「主从的复制偏移量」「主的复制积压缓冲区」,以及「服务器的运行id(run_id)」 三个指标。slave在第一次slave of master之后会保存master的run_id。每当master把命令同步给从的时候,自己会记录同步的偏移量,slave在接收到master同步的数据之后,也会记录自己的偏移量,同时master还会把同步的命令放在自己的复制积压缓冲区中,这个缓冲区默认大小是1M,遵循FIFO的原则。这样当slave断线重连后会做:
    • 把自己保存的master的run_id发给当前的主。
    • 把自己的偏移量发给当前的主。master收到信息后,首先确认slave发的run_id是自己,然后再确认slave的偏移量是否还在缓冲区中,如果这两点都满足的话,那么master就会把积压缓冲区中从slave发的偏移量之后的所有数据发给slave,实现部分同步。但是只要有一点不满足,那么就会执行全部同步。

如何解决redis脑裂问题

解决redis脑裂问题
解决redis脑裂问题

「什么是脑裂问题」:在redis集群中,如果存在两个master节点就是脑裂问题,这时候客户端连着哪个master,就往哪个master上写数据,导致数据不一致。
「脑裂问题是如何产生的」:一般可能是由于master所处的网络发生了问题,导致master和其余的slave无法正常通信,但是master和客户端的通信是ok的,这时哨兵会从剩下的slave中选举一个master,当原master网络恢复后,就会被降级成slave。
「脑裂产生的影响」:在原master失联的期间,和它通信的client会把变更记录在原 master 中,当原 master 网络恢复并成为新master的slave的时候,它会清空自己的数据,同步新 master 的数据。那么在网络失联的期间,往原master写入数据都是丢失的。
「如何解决」:主要通过两个配置参数来解决:

min-slaves-to-write 1
min-slaves-max-lag 10
  • 「min-slaves-to-write」:这个配置项设置了主库能进行数据同步的最少从库数量;
  • 「min-slaves-max-lag」:这个配置项设置了主从库间进行数据复制时,从库给主库发送 ACK 消息的最大延迟(以秒为单位)。

如果两个配置都不满足的话,那么master就拒绝客户端的请求,通过以上配置可以将丢失的数据控制在10s内。

redis集群是怎样的

  • 首先集群是由多个节点组成的,节点通过握手来将其他节点加入到自己的集群中。
  • 集群中一共有 16384 个槽。
  • 每个节点都会记录自己负责的槽,和剩下的槽是由哪个节点处理的。
  • 节点收到命令时,会先检查这个键否是自己负责的,不是的话,会返回一个 MOVED 错误,通过 MOVED 错误携带的信息引导客户端转向负责此槽的节点。
  • 如果想要重新分配槽,那得用 redis-trib 工具。
  • 重新分槽的过程中,如果节点A正在迁移槽 i 到 B 节点,那么请求到槽i的时候,节点 A 会返回一个 ASK 错误,引导客户端到槽 B 去查找。
  • 每个节点增加从节点,来实现高可用。

redis分布式锁一定是安全的吗

我们知道 redis 是单线程的,命令是一个一个处理的,所以用 redis 做分布式锁是 ok 的?最常用的就是:

set key value PX seconds NX

「锁时间到了」:一般生产环境我们为了安全会给锁加个自动过期时间,这样就算出现意外没有解锁,锁也会自动过期,降低损失风险。然而如果锁的时间到了,我们的业务还没处理完怎么办?一般解决方法如下:

  • 提前给足时间,尽量保证锁在自动失效之前,完成业务。
  • 开个线程来监控,例如线程每 1/3 锁失效时间来检查一次,如果业务还没处理完,则延长锁的时间。
  • 如果我们解锁时,发现锁已经被其他用户获取了,那么就认为此时是不安全的,选择回滚是个不错的选择。

「主从模式下」:在主从模式下,一个主至少有一个从,主负责写,从负责读,当我们设置锁的时候,是写在 master上,但是在将数据同步到slave前master出现问题,导致触发选举新的 slave 为 master,而此时锁的信息在新master上是丢失的,这样就会导致并发不安全。

  • 关于这个问题,redis 的作者提出了一个叫 RedLock 的方式。首先如果采用RedLock那么就得放弃主从模式,只有多个主节点,官方建议 5 个。当我们想要获取一把锁的时候,先记录下当前时间,然后依次尝试从 5 个节点获取锁,获取锁的时候客户端得设置一个过期时间,这个过期时间应该小于锁的失效时间,防止客户端与一个宕机的服务通信而阻塞。当获取失败后,应立刻去下一个节点获取。当从大多数节点(3个)获取到锁后,锁的真正有效时间其实等于一开始设定的时间减去获取锁成功的时间。如果因为其他原因导致没能从大多数节点获得锁,那么就应该依次解锁节点的锁,此次上锁就是失败的。这种方案实际应用不多,主要是因为:
    • 成本高,多个主节点。
    • 依赖系统时钟,如果此时通过 3 个节点已经获取到锁,但是某个实例的系统时间走的快,那么导致这个实例的锁提前失效,下一个请求过来发现又有3个节点可以获取成功,那么就出现了问题。

「总结」:redis 的分布式锁在要求强一致性的情况下可能并不适合,但是在某些场景下还是适合的,比如:就算在某个时候锁失效了,存在多个请求进入安全区,多个请求可能也就是多执行几次 db 查询,对整体业务并无大碍。

如何解决热key问题

「什么是热key」:经常被访问的 key 就是热 key,比如双 11 的商品信息,秒杀的商品信息。当热 key 的并发量非常大,使得 QPS 达到几十万级别,这时候如果没有做好防护,可能出现问题就是灾难级别的。

「如何解决」

  • 首先热 key 肯定是要缓存的,提前把热数据加载到缓存中,一上线就直接读取缓存。
  • 缓存至少集群架构,保证多个从,这样就算一个从挂了,还有备份。
  • 二级缓存,使用机器的内存再做一道拦截。比如像秒杀的商品基本信息可以直接使用机器的内存。
  • 限流,预估支持的 qps,拦截多余的请求。

业余草公众号

最后,欢迎关注我的个人微信公众号:业余草(yyucao)!可加作者微信号1:xmtxtt(5000人已满),微信号2:xttblog(5000人已满),微信号3:codedq(超3800)。备注:“1”,添加博主微信拉你进微信群。备注错误不会同意好友申请。再次感谢您的关注!后续有精彩内容会第一时间发给您!原创文章投稿请发送至532009913@qq.com邮箱。商务合作也可添加作者微信进行联系!

本文原文出处:业余草: » 最新 Redis 常见热门面试题进阶指南