mirror of
https://github.com/Snailclimb/JavaGuide
synced 2025-06-16 18:10:13 +08:00
295 lines
16 KiB
Markdown
295 lines
16 KiB
Markdown
---
|
||
title: Redis常见面试题总结(下)
|
||
category: 数据库
|
||
tag:
|
||
- Redis
|
||
head:
|
||
- - meta
|
||
- name: keywords
|
||
content: Redis基础,Redis常见数据结构,Redis线程模型,Redis内存管理,Redis事务,Redis性能优化
|
||
- name: description
|
||
content: 一篇文章总结Redis常见的知识点和面试题,涵盖Redis基础、Redis常见数据结构、Redis线程模型、Redis内存管理、Redis事务、Redis性能优化等内容。
|
||
---
|
||
|
||
## Redis 事务
|
||
|
||
### 如何使用 Redis 事务?
|
||
|
||
Redis 可以通过 **`MULTI`,`EXEC`,`DISCARD` 和 `WATCH`** 等命令来实现事务(transaction)功能。
|
||
|
||
```bash
|
||
> MULTI
|
||
OK
|
||
> SET USER "Guide哥"
|
||
QUEUED
|
||
> GET USER
|
||
QUEUED
|
||
> EXEC
|
||
1) OK
|
||
2) "Guide哥"
|
||
```
|
||
|
||
使用 [`MULTI`](https://redis.io/commands/multi) 命令后可以输入多个命令。Redis 不会立即执行这些命令,而是将它们放到队列,当调用了 [`EXEC`](https://redis.io/commands/exec) 命令将执行所有命令。
|
||
|
||
这个过程是这样的:
|
||
|
||
1. 开始事务(`MULTI`)。
|
||
2. 命令入队(批量操作 Redis 的命令,先进先出(FIFO)的顺序执行)。
|
||
3. 执行事务(`EXEC`)。
|
||
|
||
你也可以通过 [`DISCARD`](https://redis.io/commands/discard) 命令取消一个事务,它会清空事务队列中保存的所有命令。
|
||
|
||
```bash
|
||
> MULTI
|
||
OK
|
||
> SET USER "Guide哥"
|
||
QUEUED
|
||
> GET USER
|
||
QUEUED
|
||
> DISCARD
|
||
OK
|
||
```
|
||
|
||
[`WATCH`](https://redis.io/commands/watch) 命令用于监听指定的键,当调用 `EXEC` 命令执行事务时,如果一个被 `WATCH` 命令监视的键被修改的话,整个事务都不会执行,直接返回失败。
|
||
|
||
```bash
|
||
> WATCH USER
|
||
OK
|
||
> MULTI
|
||
> SET USER "Guide哥"
|
||
OK
|
||
> GET USER
|
||
Guide哥
|
||
> EXEC
|
||
ERR EXEC without MULTI
|
||
```
|
||
|
||
Redis 官网相关介绍 [https://redis.io/topics/transactions](https://redis.io/topics/transactions) 如下:
|
||
|
||

|
||
|
||
### Redis 支持原子性吗?
|
||
|
||
Redis 的事务和我们平时理解的关系型数据库的事务不同。我们知道事务具有四大特性: **1. 原子性**,**2. 隔离性**,**3. 持久性**,**4. 一致性**。
|
||
|
||
1. **原子性(Atomicity):** 事务是最小的执行单位,不允许分割。事务的原子性确保动作要么全部完成,要么完全不起作用;
|
||
2. **隔离性(Isolation):** 并发访问数据库时,一个用户的事务不被其他事务所干扰,各并发事务之间数据库是独立的;
|
||
3. **持久性(Durability):** 一个事务被提交之后。它对数据库中数据的改变是持久的,即使数据库发生故障也不应该对其有任何影响。
|
||
4. **一致性(Consistency):** 执行事务前后,数据保持一致,多个事务对同一个数据读取的结果是相同的;
|
||
|
||
Redis 事务在运行错误的情况下,除了执行过程中出现错误的命令外,其他命令都能正常执行。并且,Redis 是不支持回滚(roll back)操作的。因此,Redis 事务其实是不满足原子性的(而且不满足持久性)。
|
||
|
||
Redis 官网也解释了自己为啥不支持回滚。简单来说就是 Redis 开发者们觉得没必要支持回滚,这样更简单便捷并且性能更好。Redis 开发者觉得即使命令执行错误也应该在开发过程中就被发现而不是生产过程中。
|
||
|
||

|
||
|
||
你可以将 Redis 中的事务就理解为 :**Redis 事务提供了一种将多个命令请求打包的功能。然后,再按顺序执行打包的所有命令,并且不会被中途打断。**
|
||
|
||
除了不满足原子性之外,事务中的每条命令都会与 Redis 服务器进行网络交互,这是比较浪费资源的行为。明明一次批量执行多个命令就可以了,这种操作实在是看不懂。
|
||
|
||
因此,Redis 事务是不建议在日常开发中使用的。
|
||
|
||
**相关 issue** :
|
||
|
||
- [issue452: 关于 Redis 事务不满足原子性的问题](https://github.com/Snailclimb/JavaGuide/issues/452) 。
|
||
- [Issue491:关于 redis 没有事务回滚?](https://github.com/Snailclimb/JavaGuide/issues/491)
|
||
|
||
### 如何解决 Redis 事务的缺陷?
|
||
|
||
Redis 从 2.6 版本开始支持执行 Lua 脚本,它的功能和事务非常类似。我们可以利用 Lua 脚本来批量执行多条 Redis 命令,这些 Redis 命令会被提交到 Redis 服务器一次性执行完成,大幅减小了网络开销。
|
||
|
||
一段 Lua 脚本可以视作一条命令执行,一段 Lua 脚本执行过程中不会有其他脚本或 Redis 命令同时执行,保证了操作不会被其他指令插入或打扰。
|
||
|
||
如果 Lua 脚本运行时出错并中途结束,出错之后的命令是不会被执行的。并且,出错之前执行的命令是无法被撤销的。因此,严格来说,通过 Lua 脚本来批量执行 Redis 命令也是不满足原子性的。
|
||
|
||
另外,Redis 7.0 新增了 [Redis functions](https://redis.io/docs/manual/programmability/functions-intro/) 特性,你可以将 Redis functions 看作是比 Lua 更强大的脚本。
|
||
|
||
## Redis 性能优化
|
||
|
||
### Redis bigkey
|
||
|
||
#### 什么是 bigkey?
|
||
|
||
简单来说,如果一个 key 对应的 value 所占用的内存比较大,那这个 key 就可以看作是 bigkey。具体多大才算大呢?有一个不是特别精确的参考标准:string 类型的 value 超过 10 kb,复合类型的 value 包含的元素超过 5000 个(对于复合类型的 value 来说,不一定包含的元素越多,占用的内存就越多)。
|
||
|
||
#### bigkey 有什么危害?
|
||
|
||
除了会消耗更多的内存空间,bigkey 对性能也会有比较大的影响。
|
||
|
||
因此,我们应该尽量避免写入 bigkey!
|
||
|
||
#### 如何发现 bigkey?
|
||
|
||
**1、使用 Redis 自带的 `--bigkeys` 参数来查找。**
|
||
|
||
```bash
|
||
# redis-cli -p 6379 --bigkeys
|
||
|
||
# Scanning the entire keyspace to find biggest keys as well as
|
||
# average sizes per key type. You can use -i 0.1 to sleep 0.1 sec
|
||
# per 100 SCAN commands (not usually needed).
|
||
|
||
[00.00%] Biggest string found so far '"ballcat:oauth:refresh_auth:f6cdb384-9a9d-4f2f-af01-dc3f28057c20"' with 4437 bytes
|
||
[00.00%] Biggest list found so far '"my-list"' with 17 items
|
||
|
||
-------- summary -------
|
||
|
||
Sampled 5 keys in the keyspace!
|
||
Total key length in bytes is 264 (avg len 52.80)
|
||
|
||
Biggest list found '"my-list"' has 17 items
|
||
Biggest string found '"ballcat:oauth:refresh_auth:f6cdb384-9a9d-4f2f-af01-dc3f28057c20"' has 4437 bytes
|
||
|
||
1 lists with 17 items (20.00% of keys, avg size 17.00)
|
||
0 hashs with 0 fields (00.00% of keys, avg size 0.00)
|
||
4 strings with 4831 bytes (80.00% of keys, avg size 1207.75)
|
||
0 streams with 0 entries (00.00% of keys, avg size 0.00)
|
||
0 sets with 0 members (00.00% of keys, avg size 0.00)
|
||
0 zsets with 0 members (00.00% of keys, avg size 0.00
|
||
```
|
||
|
||
从这个命令的运行结果,我们可以看出:这个命令会扫描(Scan) Redis 中的所有 key ,会对 Redis 的性能有一点影响。并且,这种方式只能找出每种数据结构 top 1 bigkey(占用内存最大的 string 数据类型,包含元素最多的复合数据类型)。
|
||
|
||
**2、分析 RDB 文件**
|
||
|
||
通过分析 RDB 文件来找出 big key。这种方案的前提是你的 Redis 采用的是 RDB 持久化。
|
||
|
||
网上有现成的代码/工具可以直接拿来使用:
|
||
|
||
- [redis-rdb-tools](https://github.com/sripathikrishnan/redis-rdb-tools) :Python 语言写的用来分析 Redis 的 RDB 快照文件用的工具
|
||
- [rdb_bigkeys](https://github.com/weiyanwei412/rdb_bigkeys) : Go 语言写的用来分析 Redis 的 RDB 快照文件用的工具,性能更好。
|
||
|
||
### 大量 key 集中过期问题
|
||
|
||
我在上面提到过:对于过期 key,Redis 采用的是 **定期删除+惰性/懒汉式删除** 策略。
|
||
|
||
定期删除执行过程中,如果突然遇到大量过期 key 的话,客户端请求必须等待定期清理过期 key 任务线程执行完成,因为这个这个定期任务线程是在 Redis 主线程中执行的。这就导致客户端请求没办法被及时处理,响应速度会比较慢。
|
||
|
||
如何解决呢?下面是两种常见的方法:
|
||
|
||
1. 给 key 设置随机过期时间。
|
||
2. 开启 lazy-free(惰性删除/延迟释放) 。lazy-free 特性是 Redis 4.0 开始引入的,指的是让 Redis 采用异步方式延迟释放 key 使用的内存,将该操作交给单独的子线程处理,避免阻塞主线程。
|
||
|
||
个人建议不管是否开启 lazy-free,我们都尽量给 key 设置随机过期时间。
|
||
|
||
## Redis 生产问题
|
||
|
||
### 缓存穿透
|
||
|
||
#### 什么是缓存穿透?
|
||
|
||
缓存穿透说简单点就是大量请求的 key 根本不存在于缓存中,导致请求直接到了数据库上,根本没有经过缓存这一层。举个例子:某个黑客故意制造我们缓存中不存在的 key 发起大量请求,导致大量请求落到数据库。
|
||
|
||
#### 缓存穿透情况的处理流程是怎样的?
|
||
|
||
如下图所示,用户的请求最终都要跑到数据库中查询一遍。
|
||
|
||

|
||
|
||
#### 有哪些解决办法?
|
||
|
||
最基本的就是首先做好参数校验,一些不合法的参数请求直接抛出异常信息返回给客户端。比如查询的数据库 id 不能小于 0、传入的邮箱格式不对的时候直接返回错误消息给客户端等等。
|
||
|
||
**1)缓存无效 key**
|
||
|
||
如果缓存和数据库都查不到某个 key 的数据就写一个到 Redis 中去并设置过期时间,具体命令如下: `SET key value EX 10086` 。这种方式可以解决请求的 key 变化不频繁的情况,如果黑客恶意攻击,每次构建不同的请求 key,会导致 Redis 中缓存大量无效的 key 。很明显,这种方案并不能从根本上解决此问题。如果非要用这种方式来解决穿透问题的话,尽量将无效的 key 的过期时间设置短一点比如 1 分钟。
|
||
|
||
另外,这里多说一嘴,一般情况下我们是这样设计 key 的: `表名:列名:主键名:主键值` 。
|
||
|
||
如果用 Java 代码展示的话,差不多是下面这样的:
|
||
|
||
```java
|
||
public Object getObjectInclNullById(Integer id) {
|
||
// 从缓存中获取数据
|
||
Object cacheValue = cache.get(id);
|
||
// 缓存为空
|
||
if (cacheValue == null) {
|
||
// 从数据库中获取
|
||
Object storageValue = storage.get(key);
|
||
// 缓存空对象
|
||
cache.set(key, storageValue);
|
||
// 如果存储数据为空,需要设置一个过期时间(300秒)
|
||
if (storageValue == null) {
|
||
// 必须设置过期时间,否则有被攻击的风险
|
||
cache.expire(key, 60 * 5);
|
||
}
|
||
return storageValue;
|
||
}
|
||
return cacheValue;
|
||
}
|
||
```
|
||
|
||
**2)布隆过滤器**
|
||
|
||
布隆过滤器是一个非常神奇的数据结构,通过它我们可以非常方便地判断一个给定数据是否存在于海量数据中。我们需要的就是判断 key 是否合法,有没有感觉布隆过滤器就是我们想要找的那个“人”。
|
||
|
||
具体是这样做的:把所有可能存在的请求的值都存放在布隆过滤器中,当用户请求过来,先判断用户发来的请求的值是否存在于布隆过滤器中。不存在的话,直接返回请求参数错误信息给客户端,存在的话才会走下面的流程。
|
||
|
||
加入布隆过滤器之后的缓存处理流程图如下。
|
||
|
||

|
||
|
||
但是,需要注意的是布隆过滤器可能会存在误判的情况。总结来说就是: **布隆过滤器说某个元素存在,小概率会误判。布隆过滤器说某个元素不在,那么这个元素一定不在。**
|
||
|
||
_为什么会出现误判的情况呢? 我们还要从布隆过滤器的原理来说!_
|
||
|
||
我们先来看一下,**当一个元素加入布隆过滤器中的时候,会进行哪些操作:**
|
||
|
||
1. 使用布隆过滤器中的哈希函数对元素值进行计算,得到哈希值(有几个哈希函数得到几个哈希值)。
|
||
2. 根据得到的哈希值,在位数组中把对应下标的值置为 1。
|
||
|
||
我们再来看一下,**当我们需要判断一个元素是否存在于布隆过滤器的时候,会进行哪些操作:**
|
||
|
||
1. 对给定元素再次进行相同的哈希计算;
|
||
2. 得到值之后判断位数组中的每个元素是否都为 1,如果值都为 1,那么说明这个值在布隆过滤器中,如果存在一个值不为 1,说明该元素不在布隆过滤器中。
|
||
|
||
然后,一定会出现这样一种情况:**不同的字符串可能哈希出来的位置相同。** (可以适当增加位数组大小或者调整我们的哈希函数来降低概率)
|
||
|
||
更多关于布隆过滤器的内容可以看我的这篇原创:[《不了解布隆过滤器?一文给你整的明明白白!》](https://javaguide.cn/cs-basics/data-structure/bloom-filter/) ,强烈推荐,个人感觉网上应该找不到总结的这么明明白白的文章了。
|
||
|
||
### 缓存雪崩
|
||
|
||
#### 什么是缓存雪崩?
|
||
|
||
我发现缓存雪崩这名字起的有点意思,哈哈。
|
||
|
||
实际上,缓存雪崩描述的就是这样一个简单的场景:**缓存在同一时间大面积的失效,后面的请求都直接落到了数据库上,造成数据库短时间内承受大量请求。** 这就好比雪崩一样,摧枯拉朽之势,数据库的压力可想而知,可能直接就被这么多请求弄宕机了。
|
||
|
||
举个例子:系统的缓存模块出了问题比如宕机导致不可用。造成系统的所有访问,都要走数据库。
|
||
|
||
还有一种缓存雪崩的场景是:**有一些被大量访问数据(热点缓存)在某一时刻大面积失效,导致对应的请求直接落到了数据库上。** 这样的情况,有下面几种解决办法:
|
||
|
||
举个例子 :秒杀开始 12 个小时之前,我们统一存放了一批商品到 Redis 中,设置的缓存过期时间也是 12 个小时,那么秒杀开始的时候,这些秒杀的商品的访问直接就失效了。导致的情况就是,相应的请求直接就落到了数据库上,就像雪崩一样可怕。
|
||
|
||
#### 有哪些解决办法?
|
||
|
||
**针对 Redis 服务不可用的情况:**
|
||
|
||
1. 采用 Redis 集群,避免单机出现问题整个缓存服务都没办法使用。
|
||
2. 限流,避免同时处理大量的请求。
|
||
|
||
**针对热点缓存失效的情况:**
|
||
|
||
1. 设置不同的失效时间比如随机设置缓存的失效时间。
|
||
2. 缓存永不失效。
|
||
|
||
### 如何保证缓存和数据库数据的一致性?
|
||
|
||
细说的话可以扯很多,但是我觉得其实没太大必要(小声 BB:很多解决方案我也没太弄明白)。我个人觉得引入缓存之后,如果为了短时间的不一致性问题,选择让系统设计变得更加复杂的话,完全没必要。
|
||
|
||
下面单独对 **Cache Aside Pattern(旁路缓存模式)** 来聊聊。
|
||
|
||
Cache Aside Pattern 中遇到写请求是这样的:更新 DB,然后直接删除 cache 。
|
||
|
||
如果更新数据库成功,而删除缓存这一步失败的情况的话,简单说两个解决方案:
|
||
|
||
1. **缓存失效时间变短(不推荐,治标不治本)** :我们让缓存数据的过期时间变短,这样的话缓存就会从数据库中加载数据。另外,这种解决办法对于先操作缓存后操作数据库的场景不适用。
|
||
2. **增加 cache 更新重试机制(常用)**: 如果 cache 服务当前不可用导致缓存删除失败的话,我们就隔一段时间进行重试,重试次数可以自己定。如果多次重试还是失败的话,我们可以把当前更新失败的 key 存入队列中,等缓存服务可用之后,再将缓存中对应的 key 删除即可。
|
||
|
||
相关文章推荐:[缓存和数据库一致性问题,看这篇就够了 - 水滴与银弹](https://mp.weixin.qq.com/s?__biz=MzIyOTYxNDI5OA==&mid=2247487312&idx=1&sn=fa19566f5729d6598155b5c676eee62d&chksm=e8beb8e5dfc931f3e35655da9da0b61c79f2843101c130cf38996446975014f958a6481aacf1&scene=178&cur_album_id=1699766580538032128#rd)
|
||
|
||
## 参考
|
||
|
||
- 《Redis 开发与运维》
|
||
- 《Redis 设计与实现》
|
||
- Redis Transactions : https://redis.io/docs/manual/transactions/ 。 |