mirror of
https://github.com/Snailclimb/JavaGuide
synced 2025-06-20 22:17:09 +08:00
commit
5854bb9c4e
@ -39,7 +39,7 @@
|
|||||||
|
|
||||||

|

|
||||||
|
|
||||||
如图所示,当字符串存储要加入到布隆过滤器中时,该字符串首先由多个哈希函数生成不同的哈希值,然后在对应的位数组的下表的元素设置为 1(当位数组初始化时 ,所有位置均为0)。当第二次存储相同字符串时,因为先前的对应位置已设置为 1,所以很容易知道此值已经存在(去重非常方便)。
|
如图所示,当字符串存储要加入到布隆过滤器中时,该字符串首先由多个哈希函数生成不同的哈希值,然后将对应的位数组的下标设置为 1(当位数组初始化时,所有位置均为0)。当第二次存储相同字符串时,因为先前的对应位置已设置为 1,所以很容易知道此值已经存在(去重非常方便)。
|
||||||
|
|
||||||
如果我们需要判断某个字符串是否在布隆过滤器中时,只需要对给定字符串再次进行相同的哈希计算,得到值之后判断位数组中的每个元素是否都为 1,如果值都为 1,那么说明这个值在布隆过滤器中,如果存在一个值不为 1,说明该元素不在布隆过滤器中。
|
如果我们需要判断某个字符串是否在布隆过滤器中时,只需要对给定字符串再次进行相同的哈希计算,得到值之后判断位数组中的每个元素是否都为 1,如果值都为 1,那么说明这个值在布隆过滤器中,如果存在一个值不为 1,说明该元素不在布隆过滤器中。
|
||||||
|
|
||||||
@ -147,15 +147,15 @@ public class MyBloomFilter {
|
|||||||
测试:
|
测试:
|
||||||
|
|
||||||
```java
|
```java
|
||||||
String value1 = "https://javaguide.cn/";
|
String value1 = "https://javaguide.cn/";
|
||||||
String value2 = "https://github.com/Snailclimb";
|
String value2 = "https://github.com/Snailclimb";
|
||||||
MyBloomFilter filter = new MyBloomFilter();
|
MyBloomFilter filter = new MyBloomFilter();
|
||||||
System.out.println(filter.contains(value1));
|
System.out.println(filter.contains(value1));
|
||||||
System.out.println(filter.contains(value2));
|
System.out.println(filter.contains(value2));
|
||||||
filter.add(value1);
|
filter.add(value1);
|
||||||
filter.add(value2);
|
filter.add(value2);
|
||||||
System.out.println(filter.contains(value1));
|
System.out.println(filter.contains(value1));
|
||||||
System.out.println(filter.contains(value2));
|
System.out.println(filter.contains(value2));
|
||||||
```
|
```
|
||||||
|
|
||||||
Output:
|
Output:
|
||||||
@ -170,15 +170,15 @@ true
|
|||||||
测试:
|
测试:
|
||||||
|
|
||||||
```java
|
```java
|
||||||
Integer value1 = 13423;
|
Integer value1 = 13423;
|
||||||
Integer value2 = 22131;
|
Integer value2 = 22131;
|
||||||
MyBloomFilter filter = new MyBloomFilter();
|
MyBloomFilter filter = new MyBloomFilter();
|
||||||
System.out.println(filter.contains(value1));
|
System.out.println(filter.contains(value1));
|
||||||
System.out.println(filter.contains(value2));
|
System.out.println(filter.contains(value2));
|
||||||
filter.add(value1);
|
filter.add(value1);
|
||||||
filter.add(value2);
|
filter.add(value2);
|
||||||
System.out.println(filter.contains(value1));
|
System.out.println(filter.contains(value1));
|
||||||
System.out.println(filter.contains(value2));
|
System.out.println(filter.contains(value2));
|
||||||
```
|
```
|
||||||
|
|
||||||
Output:
|
Output:
|
||||||
@ -190,18 +190,18 @@ true
|
|||||||
true
|
true
|
||||||
```
|
```
|
||||||
|
|
||||||
### 5.利用Google开源的 Guava中自带的布隆过滤器
|
### 5.利用 Google 开源的 Guava 中自带的布隆过滤器
|
||||||
|
|
||||||
自己实现的目的主要是为了让自己搞懂布隆过滤器的原理,Guava 中布隆过滤器的实现算是比较权威的,所以实际项目中我们不需要手动实现一个布隆过滤器。
|
自己实现的目的主要是为了让自己搞懂布隆过滤器的原理,Guava 中布隆过滤器的实现算是比较权威的,所以实际项目中我们不需要手动实现一个布隆过滤器。
|
||||||
|
|
||||||
首先我们需要在项目中引入 Guava 的依赖:
|
首先我们需要在项目中引入 Guava 的依赖:
|
||||||
|
|
||||||
```java
|
```java
|
||||||
<dependency>
|
<dependency>
|
||||||
<groupId>com.google.guava</groupId>
|
<groupId>com.google.guava</groupId>
|
||||||
<artifactId>guava</artifactId>
|
<artifactId>guava</artifactId>
|
||||||
<version>28.0-jre</version>
|
<version>28.0-jre</version>
|
||||||
</dependency>
|
</dependency>
|
||||||
```
|
```
|
||||||
|
|
||||||
实际使用如下:
|
实际使用如下:
|
||||||
@ -209,42 +209,42 @@ true
|
|||||||
我们创建了一个最多存放 最多 1500个整数的布隆过滤器,并且我们可以容忍误判的概率为百分之(0.01)
|
我们创建了一个最多存放 最多 1500个整数的布隆过滤器,并且我们可以容忍误判的概率为百分之(0.01)
|
||||||
|
|
||||||
```java
|
```java
|
||||||
// 创建布隆过滤器对象
|
// 创建布隆过滤器对象
|
||||||
BloomFilter<Integer> filter = BloomFilter.create(
|
BloomFilter<Integer> filter = BloomFilter.create(
|
||||||
Funnels.integerFunnel(),
|
Funnels.integerFunnel(),
|
||||||
1500,
|
1500,
|
||||||
0.01);
|
0.01);
|
||||||
// 判断指定元素是否存在
|
// 判断指定元素是否存在
|
||||||
System.out.println(filter.mightContain(1));
|
System.out.println(filter.mightContain(1));
|
||||||
System.out.println(filter.mightContain(2));
|
System.out.println(filter.mightContain(2));
|
||||||
// 将元素添加进布隆过滤器
|
// 将元素添加进布隆过滤器
|
||||||
filter.put(1);
|
filter.put(1);
|
||||||
filter.put(2);
|
filter.put(2);
|
||||||
System.out.println(filter.mightContain(1));
|
System.out.println(filter.mightContain(1));
|
||||||
System.out.println(filter.mightContain(2));
|
System.out.println(filter.mightContain(2));
|
||||||
```
|
```
|
||||||
|
|
||||||
在我们的示例中,当`mightContain()` 方法返回*true*时,我们可以99%确定该元素在过滤器中,当过滤器返回*false*时,我们可以100%确定该元素不存在于过滤器中。
|
在我们的示例中,当`mightContain()` 方法返回 *true* 时,我们可以99%确定该元素在过滤器中,当过滤器返回 *false* 时,我们可以100%确定该元素不存在于过滤器中。
|
||||||
|
|
||||||
**Guava 提供的布隆过滤器的实现还是很不错的(想要详细了解的可以看一下它的源码实现),但是它有一个重大的缺陷就是只能单机使用(另外,容量扩展也不容易),而现在互联网一般都是分布式的场景。为了解决这个问题,我们就需要用到 Redis 中的布隆过滤器了。**
|
**Guava 提供的布隆过滤器的实现还是很不错的(想要详细了解的可以看一下它的源码实现),但是它有一个重大的缺陷就是只能单机使用(另外,容量扩展也不容易),而现在互联网一般都是分布式的场景。为了解决这个问题,我们就需要用到 Redis 中的布隆过滤器了。**
|
||||||
|
|
||||||
### 6.Redis 中的布隆过滤器
|
### 6.Redis 中的布隆过滤器
|
||||||
|
|
||||||
#### 6.1介绍
|
#### 6.1 介绍
|
||||||
|
|
||||||
Redis v4.0 之后有了 Module(模块/插件) 功能,Redis Modules 让 Redis 可以使用外部模块扩展其功能 。布隆过滤器就是其中的 Module。详情可以查看 Redis 官方对 Redis Modules 的介绍 :https://redis.io/modules
|
Redis v4.0 之后有了 Module(模块/插件) 功能,Redis Modules 让 Redis 可以使用外部模块扩展其功能 。布隆过滤器就是其中的 Module。详情可以查看 Redis 官方对 Redis Modules 的介绍 :https://redis.io/modules
|
||||||
|
|
||||||
另外,官网推荐了一个 RedisBloom 作为 Redis 布隆过滤器的 Module,地址:https://github.com/RedisBloom/RedisBloom. 其他还有:
|
另外,官网推荐了一个 RedisBloom 作为 Redis 布隆过滤器的 Module,地址:https://github.com/RedisBloom/RedisBloom。其他还有:
|
||||||
|
|
||||||
- redis-lua-scaling-bloom-filter (lua 脚本实现):https://github.com/erikdubbelboer/redis-lua-scaling-bloom-filter
|
- redis-lua-scaling-bloom-filter(lua 脚本实现):https://github.com/erikdubbelboer/redis-lua-scaling-bloom-filter
|
||||||
- pyreBloom(Python中的快速Redis 布隆过滤器) :https://github.com/seomoz/pyreBloom
|
- pyreBloom(Python中的快速Redis 布隆过滤器) :https://github.com/seomoz/pyreBloom
|
||||||
- ......
|
- ......
|
||||||
|
|
||||||
RedisBloom 提供了多种语言的客户端支持,包括:Python、Java、JavaScript 和 PHP。
|
RedisBloom 提供了多种语言的客户端支持,包括:Python、Java、JavaScript 和 PHP。
|
||||||
|
|
||||||
#### 6.2使用Docker安装
|
#### 6.2 使用Docker安装
|
||||||
|
|
||||||
如果我们需要体验 Redis 中的布隆过滤器非常简单,通过 Docker 就可以了!我们直接在 Google 搜索**docker redis bloomfilter** 然后在排除广告的第一条搜素结果就找到了我们想要的答案(这是我平常解决问题的一种方式,分享一下),具体地址:https://hub.docker.com/r/redislabs/rebloom/ (介绍的很详细 )。
|
如果我们需要体验 Redis 中的布隆过滤器非常简单,通过 Docker 就可以了!我们直接在 Google 搜索 **docker redis bloomfilter** 然后在排除广告的第一条搜素结果就找到了我们想要的答案(这是我平常解决问题的一种方式,分享一下),具体地址:https://hub.docker.com/r/redislabs/rebloom/ (介绍的很详细 )。
|
||||||
|
|
||||||
**具体操作如下:**
|
**具体操作如下:**
|
||||||
|
|
||||||
@ -257,7 +257,7 @@ root@21396d02c252:/data# redis-cli
|
|||||||
|
|
||||||
#### 6.3常用命令一览
|
#### 6.3常用命令一览
|
||||||
|
|
||||||
> 注意: key:布隆过滤器的名称,item : 添加的元素。
|
> 注意: key : 布隆过滤器的名称,item : 添加的元素。
|
||||||
|
|
||||||
1. **`BF.ADD `**:将元素添加到布隆过滤器中,如果该过滤器尚不存在,则创建该过滤器。格式:`BF.ADD {key} {item}`。
|
1. **`BF.ADD `**:将元素添加到布隆过滤器中,如果该过滤器尚不存在,则创建该过滤器。格式:`BF.ADD {key} {item}`。
|
||||||
2. **`BF.MADD `** : 将一个或多个元素添加到“布隆过滤器”中,并创建一个尚不存在的过滤器。该命令的操作方式`BF.ADD`与之相同,只不过它允许多个输入并返回多个值。格式:`BF.MADD {key} {item} [item ...]` 。
|
2. **`BF.MADD `** : 将一个或多个元素添加到“布隆过滤器”中,并创建一个尚不存在的过滤器。该命令的操作方式`BF.ADD`与之相同,只不过它允许多个输入并返回多个值。格式:`BF.MADD {key} {item} [item ...]` 。
|
||||||
|
@ -7,7 +7,7 @@
|
|||||||
|
|
||||||
**很多时候我们需要持久化数据也就是将内存中的数据写入到硬盘里面,大部分原因是为了之后重用数据(比如重启机器、机器故障之后回复数据),或者是为了防止系统故障而将数据备份到一个远程位置。**
|
**很多时候我们需要持久化数据也就是将内存中的数据写入到硬盘里面,大部分原因是为了之后重用数据(比如重启机器、机器故障之后回复数据),或者是为了防止系统故障而将数据备份到一个远程位置。**
|
||||||
|
|
||||||
Redis不同于Memcached的很重一点就是,**Redis支持持久化**,而且支持两种不同的持久化操作。Redis的一种持久化方式叫**快照(snapshotting,RDB)**,另一种方式是**只追加文件(append-only file,AOF)**.这两种方法各有千秋,下面我会详细这两种持久化方法是什么,怎么用,如何选择适合自己的持久化方法。
|
Redis不同于Memcached的很重要一点就是,**Redis支持持久化**,而且支持两种不同的持久化操作。Redis的一种持久化方式叫**快照(snapshotting,RDB)**,另一种方式是**只追加文件(append-only file,AOF)**。这两种方法各有千秋,下面我会详细这两种持久化方法是什么,怎么用,如何选择适合自己的持久化方法。
|
||||||
|
|
||||||
## 快照(snapshotting)持久化
|
## 快照(snapshotting)持久化
|
||||||
|
|
||||||
@ -16,8 +16,8 @@ Redis可以通过创建快照来获得存储在内存里面的数据在某个时
|
|||||||

|

|
||||||
|
|
||||||
**快照持久化是Redis默认采用的持久化方式**,在redis.conf配置文件中默认有此下配置:
|
**快照持久化是Redis默认采用的持久化方式**,在redis.conf配置文件中默认有此下配置:
|
||||||
```
|
|
||||||
|
|
||||||
|
```
|
||||||
save 900 1 #在900秒(15分钟)之后,如果至少有1个key发生变化,Redis就会自动触发BGSAVE命令创建快照。
|
save 900 1 #在900秒(15分钟)之后,如果至少有1个key发生变化,Redis就会自动触发BGSAVE命令创建快照。
|
||||||
|
|
||||||
save 300 10 #在300秒(5分钟)之后,如果至少有10个key发生变化,Redis就会自动触发BGSAVE命令创建快照。
|
save 300 10 #在300秒(5分钟)之后,如果至少有10个key发生变化,Redis就会自动触发BGSAVE命令创建快照。
|
||||||
@ -39,8 +39,6 @@ save 60 10000 #在60秒(1分钟)之后,如果至少有10000个key发生
|
|||||||
|
|
||||||
如果系统真的发生崩溃,用户将丢失最近一次生成快照之后更改的所有数据。因此,快照持久化只适用于即使丢失一部分数据也不会造成一些大问题的应用程序。不能接受这个缺点的话,可以考虑AOF持久化。
|
如果系统真的发生崩溃,用户将丢失最近一次生成快照之后更改的所有数据。因此,快照持久化只适用于即使丢失一部分数据也不会造成一些大问题的应用程序。不能接受这个缺点的话,可以考虑AOF持久化。
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
## **AOF(append-only file)持久化**
|
## **AOF(append-only file)持久化**
|
||||||
与快照持久化相比,AOF持久化 的实时性更好,因此已成为主流的持久化方案。默认情况下Redis没有开启AOF(append only file)方式的持久化,可以通过appendonly参数开启:
|
与快照持久化相比,AOF持久化 的实时性更好,因此已成为主流的持久化方案。默认情况下Redis没有开启AOF(append only file)方式的持久化,可以通过appendonly参数开启:
|
||||||
|
|
||||||
@ -55,7 +53,6 @@ appendonly yes
|
|||||||
**在Redis的配置文件中存在三种同步方式,它们分别是:**
|
**在Redis的配置文件中存在三种同步方式,它们分别是:**
|
||||||
|
|
||||||
```
|
```
|
||||||
|
|
||||||
appendfsync always #每次有数据修改发生时都会写入AOF文件,这样会严重降低Redis的速度
|
appendfsync always #每次有数据修改发生时都会写入AOF文件,这样会严重降低Redis的速度
|
||||||
appendfsync everysec #每秒钟同步一次,显示地将多个写命令同步到硬盘
|
appendfsync everysec #每秒钟同步一次,显示地将多个写命令同步到硬盘
|
||||||
appendfsync no #让操作系统决定何时进行同步
|
appendfsync no #让操作系统决定何时进行同步
|
||||||
@ -65,7 +62,6 @@ appendfsync no #让操作系统决定何时进行同步
|
|||||||
|
|
||||||
为了兼顾数据和写入性能,用户可以考虑 **appendfsync everysec选项** ,让Redis每秒同步一次AOF文件,Redis性能几乎没受到任何影响。而且这样即使出现系统崩溃,用户最多只会丢失一秒之内产生的数据。当硬盘忙于执行写入操作的时候,Redis还会优雅的放慢自己的速度以便适应硬盘的最大写入速度。
|
为了兼顾数据和写入性能,用户可以考虑 **appendfsync everysec选项** ,让Redis每秒同步一次AOF文件,Redis性能几乎没受到任何影响。而且这样即使出现系统崩溃,用户最多只会丢失一秒之内产生的数据。当硬盘忙于执行写入操作的时候,Redis还会优雅的放慢自己的速度以便适应硬盘的最大写入速度。
|
||||||
|
|
||||||
|
|
||||||
**appendfsync no** 选项一般不推荐,这种方案会使Redis丢失不定量的数据而且如果用户的硬盘处理写入操作的速度不够的话,那么当缓冲区被等待写入的数据填满时,Redis的写入操作将被阻塞,这会导致Redis的请求速度变慢。
|
**appendfsync no** 选项一般不推荐,这种方案会使Redis丢失不定量的数据而且如果用户的硬盘处理写入操作的速度不够的话,那么当缓冲区被等待写入的数据填满时,Redis的写入操作将被阻塞,这会导致Redis的请求速度变慢。
|
||||||
|
|
||||||
**虽然AOF持久化非常灵活地提供了多种不同的选项来满足不同应用程序对数据安全的不同要求,但AOF持久化也有缺陷——AOF文件的体积太大。**
|
**虽然AOF持久化非常灵活地提供了多种不同的选项来满足不同应用程序对数据安全的不同要求,但AOF持久化也有缺陷——AOF文件的体积太大。**
|
||||||
@ -100,7 +96,7 @@ auto-aof-rewrite-min-size 64mb
|
|||||||
|
|
||||||
无论是AOF持久化还是快照持久化,将数据持久化到硬盘上都是非常有必要的,但除了进行持久化外,用户还必须对持久化得到的文件进行备份(最好是备份到不同的地方),这样才能尽量避免数据丢失事故发生。如果条件允许的话,最好能将快照文件和重新重写的AOF文件备份到不同的服务器上面。
|
无论是AOF持久化还是快照持久化,将数据持久化到硬盘上都是非常有必要的,但除了进行持久化外,用户还必须对持久化得到的文件进行备份(最好是备份到不同的地方),这样才能尽量避免数据丢失事故发生。如果条件允许的话,最好能将快照文件和重新重写的AOF文件备份到不同的服务器上面。
|
||||||
|
|
||||||
随着负载量的上升,或者数据的完整性变得 越来越重要时,用户可能需要使用到复制特性。
|
随着负载量的上升,或者数据的完整性变得越来越重要时,用户可能需要使用到复制特性。
|
||||||
|
|
||||||
## Redis 4.0 对于持久化机制的优化
|
## Redis 4.0 对于持久化机制的优化
|
||||||
Redis 4.0 开始支持 RDB 和 AOF 的混合持久化(默认关闭,可以通过配置项 `aof-use-rdb-preamble` 开启)。
|
Redis 4.0 开始支持 RDB 和 AOF 的混合持久化(默认关闭,可以通过配置项 `aof-use-rdb-preamble` 开启)。
|
||||||
@ -113,4 +109,3 @@ Redis 4.0 开始支持 RDB 和 AOF 的混合持久化(默认关闭,可以通
|
|||||||
|
|
||||||
[深入学习Redis(2):持久化](https://www.cnblogs.com/kismetv/p/9137897.html)
|
[深入学习Redis(2):持久化](https://www.cnblogs.com/kismetv/p/9137897.html)
|
||||||
|
|
||||||
|
|
||||||
|
@ -1,6 +1,5 @@
|
|||||||
点击关注[公众号](#公众号)及时获取笔主最新更新文章,并可免费领取本文档配套的《Java 面试突击》以及 Java 工程师必备学习资源。
|
点击关注[公众号](#公众号)及时获取笔主最新更新文章,并可免费领取本文档配套的《Java 面试突击》以及 Java 工程师必备学习资源。
|
||||||
|
|
||||||
|
|
||||||
<!-- @import "[TOC]" {cmd="toc" depthFrom=1 depthTo=6 orderedList=false} -->
|
<!-- @import "[TOC]" {cmd="toc" depthFrom=1 depthTo=6 orderedList=false} -->
|
||||||
|
|
||||||
<!-- code_chunk_output -->
|
<!-- code_chunk_output -->
|
||||||
@ -44,7 +43,7 @@
|
|||||||
|
|
||||||
简单来说 **Redis 就是一个使用 C 语言开发的数据库**,不过与传统数据库不同的是 **Redis 的数据是存在内存中的** ,也就是它是内存数据库,所以读写速度非常快,因此 Redis 被广泛应用于缓存方向。
|
简单来说 **Redis 就是一个使用 C 语言开发的数据库**,不过与传统数据库不同的是 **Redis 的数据是存在内存中的** ,也就是它是内存数据库,所以读写速度非常快,因此 Redis 被广泛应用于缓存方向。
|
||||||
|
|
||||||
另外,**Redis 除了做缓存之外,Redis 也经常用来做分布式锁,甚至是消息队列。**
|
另外,**Redis 除了做缓存之外,也经常用来做分布式锁,甚至是消息队列。**
|
||||||
|
|
||||||
**Redis 提供了多种数据类型来支持不同的业务场景。Redis 还支持事务 、持久化、Lua 脚本、多种集群方案。**
|
**Redis 提供了多种数据类型来支持不同的业务场景。Redis 还支持事务 、持久化、Lua 脚本、多种集群方案。**
|
||||||
|
|
||||||
@ -54,7 +53,7 @@
|
|||||||
|
|
||||||
Memcached 是分布式缓存最开始兴起的那会,比较常用的。后来,随着 Redis 的发展,大家慢慢都转而使用更加强大的 Redis 了。
|
Memcached 是分布式缓存最开始兴起的那会,比较常用的。后来,随着 Redis 的发展,大家慢慢都转而使用更加强大的 Redis 了。
|
||||||
|
|
||||||
分布式缓存主要解决的是单机缓存的容量受服务器限制并且无法保存通用的信息。因为,本地缓存只在当前服务里有效,比如如果你部署了两个相同的服务,他们两者之间的缓存数据是无法共同的。
|
分布式缓存主要解决的是单机缓存的容量受服务器限制并且无法保存通用信息的问题。因为,本地缓存只在当前服务里有效,比如如果你部署了两个相同的服务,他们两者之间的缓存数据是无法共同的。
|
||||||
|
|
||||||
### 3. 说一下 Redis 和 Memcached 的区别和共同点
|
### 3. 说一下 Redis 和 Memcached 的区别和共同点
|
||||||
|
|
||||||
@ -72,7 +71,7 @@ Memcached 是分布式缓存最开始兴起的那会,比较常用的。后来
|
|||||||
2. **Redis 支持数据的持久化,可以将内存中的数据保持在磁盘中,重启的时候可以再次加载进行使用,而 Memecache 把数据全部存在内存之中。**
|
2. **Redis 支持数据的持久化,可以将内存中的数据保持在磁盘中,重启的时候可以再次加载进行使用,而 Memecache 把数据全部存在内存之中。**
|
||||||
3. **Redis 有灾难恢复机制。** 因为可以把缓存中的数据持久化到磁盘上。
|
3. **Redis 有灾难恢复机制。** 因为可以把缓存中的数据持久化到磁盘上。
|
||||||
4. **Redis 在服务器内存使用完之后,可以将不用的数据放到磁盘上。但是,Memcached 在服务器内存使用完之后,就会直接报异常。**
|
4. **Redis 在服务器内存使用完之后,可以将不用的数据放到磁盘上。但是,Memcached 在服务器内存使用完之后,就会直接报异常。**
|
||||||
5. **Memcached 没有原生的集群模式,需要依靠客户端来实现往集群中分片写入数据;但是 Redis 目前是原生支持 cluster 模式的.**
|
5. **Memcached 没有原生的集群模式,需要依靠客户端来实现往集群中分片写入数据;但是 Redis 目前是原生支持 cluster 模式的。**
|
||||||
6. **Memcached 是多线程,非阻塞 IO 复用的网络模型;Redis 使用单线程的多路 IO 复用模型。** (Redis 6.0 引入了多线程 IO )
|
6. **Memcached 是多线程,非阻塞 IO 复用的网络模型;Redis 使用单线程的多路 IO 复用模型。** (Redis 6.0 引入了多线程 IO )
|
||||||
7. **Redis 支持发布订阅模型、Lua 脚本、事务等功能,而 Memcached 不支持。并且,Redis 支持更多的编程语言。**
|
7. **Redis 支持发布订阅模型、Lua 脚本、事务等功能,而 Memcached 不支持。并且,Redis 支持更多的编程语言。**
|
||||||
8. **Memcached 过期数据的删除策略只用了惰性删除,而 Redis 同时使用了惰性删除与定期删除。**
|
8. **Memcached 过期数据的删除策略只用了惰性删除,而 Redis 同时使用了惰性删除与定期删除。**
|
||||||
@ -116,7 +115,7 @@ _简单,来说使用缓存主要是为了提升用户体验以及应对更多
|
|||||||
|
|
||||||
> QPS(Query Per Second):服务器每秒可以执行的查询次数;
|
> QPS(Query Per Second):服务器每秒可以执行的查询次数;
|
||||||
|
|
||||||
所以,直接操作缓存能够承受的数据库请求数量是远远大于直接访问数据库的,所以我们可以考虑把数据库中的部分数据转移到缓存中去,这样用户的一部分请求会直接到缓存这里而不用经过数据库。进而,我们也就提高的系统整体的并发。
|
由此可见,直接操作缓存能够承受的数据库请求数量是远远大于直接访问数据库的,所以我们可以考虑把数据库中的部分数据转移到缓存中去,这样用户的一部分请求会直接到缓存这里而不用经过数据库。进而,我们也就提高了系统整体的并发。
|
||||||
|
|
||||||
### 6. Redis 常见数据结构以及使用场景分析
|
### 6. Redis 常见数据结构以及使用场景分析
|
||||||
|
|
||||||
@ -126,9 +125,9 @@ _简单,来说使用缓存主要是为了提升用户体验以及应对更多
|
|||||||
|
|
||||||
#### 6.1. string
|
#### 6.1. string
|
||||||
|
|
||||||
1. **介绍** :string 数据结构是简单的 key-value 类型。虽然 Redis 是用 C 语言写的,但是 Redis 并没有使用 C 的字符串表示,而是自己构建了一种 **简单动态字符串**(simple dynamic string,**SDS**)。相比于 C 的原生字符串,Redis 的 SDS 不光可以保存文本数据还可以保存二进制数据,并且获取字符串长度复杂度为 O(1)(C 字符串为 O(N)),除此之外,Redis 的 SDS API 是安全的,不会造成缓冲区溢出。
|
1. **介绍** :string 数据结构是简单的 key-value 类型。虽然 Redis 是用 C 语言写的,但是 Redis 并没有使用 C 的字符串表示,而是自己构建了一种 **简单动态字符串**(simple dynamic string,**SDS**)。相比于 C 的原生字符串,Redis 的 SDS 不光可以保存文本数据还可以保存二进制数据,并且获取字符串长度复杂度为 O(1)(C 字符串为 O(N)),除此之外,Redis 的 SDS API 是安全的,不会造成缓冲区溢出。
|
||||||
2. **常用命令:** `set,get,strlen,exists,decr,incr,setex` 等等。
|
2. **常用命令:** `set,get,strlen,exists,decr,incr,setex` 等等。
|
||||||
3. **应用场景** :一般常用在需要计数的场景,比如用户的访问次数、热点文章的点赞转发数量等等。
|
3. **应用场景:** 一般常用在需要计数的场景,比如用户的访问次数、热点文章的点赞转发数量等等。
|
||||||
|
|
||||||
下面我们简单看看它的使用!
|
下面我们简单看看它的使用!
|
||||||
|
|
||||||
@ -162,7 +161,6 @@ OK
|
|||||||
**计数器(字符串的内容为整数的时候可以使用):**
|
**计数器(字符串的内容为整数的时候可以使用):**
|
||||||
|
|
||||||
```bash
|
```bash
|
||||||
|
|
||||||
127.0.0.1:6379> set number 1
|
127.0.0.1:6379> set number 1
|
||||||
OK
|
OK
|
||||||
127.0.0.1:6379> incr number # 将 key 中储存的数字值增一
|
127.0.0.1:6379> incr number # 将 key 中储存的数字值增一
|
||||||
@ -175,7 +173,7 @@ OK
|
|||||||
"1"
|
"1"
|
||||||
```
|
```
|
||||||
|
|
||||||
**过期**:
|
**过期(默认为永不过期)**:
|
||||||
|
|
||||||
```bash
|
```bash
|
||||||
127.0.0.1:6379> expire key 60 # 数据在 60s 后过期
|
127.0.0.1:6379> expire key 60 # 数据在 60s 后过期
|
||||||
@ -188,8 +186,8 @@ OK
|
|||||||
|
|
||||||
#### 6.2. list
|
#### 6.2. list
|
||||||
|
|
||||||
1. **介绍** :**list** 即是 **链表**。链表是一种非常常见的数据结构,特点是易于数据元素的插入和删除并且且可以灵活调整链表长度,但是链表的随机访问困难。许多高级编程语言都内置了链表的实现比如 Java 中的 **LinkedList**,但是 C 语言并没有实现链表,所以 Redis 实现了自己的链表数据结构。Redis 的 list 的实现为一个 **双向链表**,即可以支持反向查找和遍历,更方便操作,不过带来了部分额外的内存开销。
|
1. **介绍** :**list** 即是 **链表**。链表是一种非常常见的数据结构,特点是易于数据元素的插入和删除并且可以灵活调整链表长度,但是链表的随机访问困难。许多高级编程语言都内置了链表的实现比如 Java 中的 **LinkedList**,但是 C 语言并没有实现链表,所以 Redis 实现了自己的链表数据结构。Redis 的 list 的实现为一个 **双向链表**,即可以支持反向查找和遍历,更方便操作,不过带来了部分额外的内存开销。
|
||||||
2. **常用命令:** `rpush,lpop,lpush,rpop,lrange、llen` 等。
|
2. **常用命令:** `rpush,lpop,lpush,rpop,lrange,llen` 等。
|
||||||
3. **应用场景:** 发布与订阅或者说消息队列、慢查询。
|
3. **应用场景:** 发布与订阅或者说消息队列、慢查询。
|
||||||
|
|
||||||
下面我们简单看看它的使用!
|
下面我们简单看看它的使用!
|
||||||
@ -341,9 +339,9 @@ OK
|
|||||||
|
|
||||||
#### 6.6 bitmap
|
#### 6.6 bitmap
|
||||||
|
|
||||||
1. **介绍 :** bitmap 存储的是连续的二进制数字(0 和 1),通过 bitmap, 只需要一个 bit 位来表示某个元素对应的值或者状态,key 就是对应元素本身 。我们知道 8 个 bit 可以组成一个 byte,所以 bitmap 本身会极大的节省储存空间。
|
1. **介绍:** bitmap 存储的是连续的二进制数字(0 和 1),通过 bitmap, 只需要一个 bit 位来表示某个元素对应的值或者状态,key 就是对应元素本身 。我们知道 8 个 bit 可以组成一个 byte,所以 bitmap 本身会极大的节省储存空间。
|
||||||
2. **常用命令:** `setbit` 、`getbit` 、`bitcount`、`bitop`
|
2. **常用命令:** `setbit` 、`getbit` 、`bitcount`、`bitop`
|
||||||
3. **应用场景:** 适合需要保存状态信息(比如是否签到、是否登录...)并需要进一步对这些信息进行分析的场景。比如用户签到情况、活跃用户情况、用户行为统计(比如是否点赞过某个视频)。
|
3. **应用场景:** 适合需要保存状态信息(比如是否签到、是否登录...)并需要进一步对这些信息进行分析的场景。比如用户签到情况、活跃用户情况、用户行为统计(比如是否点赞过某个视频)。
|
||||||
|
|
||||||
```bash
|
```bash
|
||||||
# SETBIT 会返回之前位的值(默认是 0)这里会生成 7 个位
|
# SETBIT 会返回之前位的值(默认是 0)这里会生成 7 个位
|
||||||
@ -376,7 +374,7 @@ OK
|
|||||||
|
|
||||||
使用时间作为 key,然后用户 ID 为 offset,如果当日活跃过就设置为 1
|
使用时间作为 key,然后用户 ID 为 offset,如果当日活跃过就设置为 1
|
||||||
|
|
||||||
那么我该如果计算某几天/月/年的活跃用户呢(暂且约定,统计时间内只有有一天在线就称为活跃),有请下一个 redis 的命令
|
那么我该如何计算某几天/月/年的活跃用户呢(暂且约定,统计时间内只要有一天在线就称为活跃),有请下一个 redis 的命令
|
||||||
|
|
||||||
```bash
|
```bash
|
||||||
# 对一个或多个保存二进制位的字符串 key 进行位元操作,并将结果保存到 destkey 上。
|
# 对一个或多个保存二进制位的字符串 key 进行位元操作,并将结果保存到 destkey 上。
|
||||||
@ -415,7 +413,7 @@ BITOP operation destkey key [key ...]
|
|||||||
|
|
||||||
**使用场景三:用户在线状态**
|
**使用场景三:用户在线状态**
|
||||||
|
|
||||||
对于获取或者统计用户在线状态,使用 bitmap 是一个节约空间效率又高的一种方法。
|
对于获取或者统计用户在线状态,使用 bitmap 是一个节约空间且效率又高的一种方法。
|
||||||
|
|
||||||
只需要一个 key,然后用户 ID 为 offset,如果在线就设置为 1,不在线就设置为 0。
|
只需要一个 key,然后用户 ID 为 offset,如果在线就设置为 1,不在线就设置为 0。
|
||||||
|
|
||||||
@ -425,17 +423,17 @@ BITOP operation destkey key [key ...]
|
|||||||
|
|
||||||
**既然是单线程,那怎么监听大量的客户端连接呢?**
|
**既然是单线程,那怎么监听大量的客户端连接呢?**
|
||||||
|
|
||||||
Redis 通过**IO 多路复用程序** 来监听来自客户端的大量连接(或者说是监听多个 socket),它会将感兴趣的事件及类型(读、写)注册到内核中并监听每个事件是否发生。
|
Redis 通过**IO 多路复用程序** 来监听来自客户端的大量连接(或者说是监听多个 socket),它会将感兴趣的事件及类型(读、写)注册到内核中并监听每个事件是否发生。
|
||||||
|
|
||||||
这样的好处非常明显: **I/O 多路复用技术的使用让 Redis 不需要额外创建多余的线程来监听客户端的大量连接,降低了资源的消耗**(和 NIO 中的 `Selector` 组件很像)。
|
这样的好处非常明显: **I/O 多路复用技术的使用让 Redis 不需要额外创建多余的线程来监听客户端的大量连接,降低了资源的消耗**(和 NIO 中的 `Selector` 组件很像)。
|
||||||
|
|
||||||
另外, Redis 服务器是一个事件驱动程序,服务器需要处理两类事件: 1. 文件事件; 2. 时间事件。
|
另外, Redis 服务器是一个事件驱动程序,服务器需要处理两类事件:1. 文件事件; 2. 时间事件。
|
||||||
|
|
||||||
时间事件不需要多花时间了解,我们接触最多的还是 **文件事件**(客户端进行读取写入等操作,涉及一系列网络通信)。
|
时间事件不需要多花时间了解,我们接触最多的还是 **文件事件**(客户端进行读取写入等操作,涉及一系列网络通信)。
|
||||||
|
|
||||||
《Redis 设计与实现》有一段话是如是介绍文件事件的,我觉得写得挺不错。
|
《Redis 设计与实现》有一段话是如是介绍文件事件的,我觉得写得挺不错。
|
||||||
|
|
||||||
> Redis 基于 Reactor 模式开发了自己的网络事件处理器:这个处理器被称为文件事件处理器(file event handler)。文件事件处理器使用 I/O 多路复用(multiplexing)程序来同时监听多个套接字,并根据 套接字目前执行的任务来为套接字关联不同的事件处理器。
|
> Redis 基于 Reactor 模式开发了自己的网络事件处理器:这个处理器被称为文件事件处理器(file event handler)。文件事件处理器使用 I/O 多路复用(multiplexing)程序来同时监听多个套接字,并根据套接字目前执行的任务来为套接字关联不同的事件处理器。
|
||||||
>
|
>
|
||||||
> 当被监听的套接字准备好执行连接应答(accept)、读取(read)、写入(write)、关 闭(close)等操作时,与操作相对应的文件事件就会产生,这时文件事件处理器就会调用套接字之前关联好的事件处理器来处理这些事件。
|
> 当被监听的套接字准备好执行连接应答(accept)、读取(read)、写入(write)、关 闭(close)等操作时,与操作相对应的文件事件就会产生,这时文件事件处理器就会调用套接字之前关联好的事件处理器来处理这些事件。
|
||||||
>
|
>
|
||||||
@ -454,7 +452,7 @@ Redis 通过**IO 多路复用程序** 来监听来自客户端的大量连接(
|
|||||||
|
|
||||||
### 8. Redis 没有使用多线程?为什么不使用多线程?
|
### 8. Redis 没有使用多线程?为什么不使用多线程?
|
||||||
|
|
||||||
虽然说 Redis 是单线程模型,但是, 实际上,**Redis 在 4.0 之后的版本中就已经加入了对多线程的支持。**
|
虽然说 Redis 是单线程模型,但是,实际上,**Redis 在 4.0 之后的版本中就已经加入了对多线程的支持。**
|
||||||
|
|
||||||

|

|
||||||
|
|
||||||
@ -467,14 +465,14 @@ Redis 通过**IO 多路复用程序** 来监听来自客户端的大量连接(
|
|||||||
我觉得主要原因有下面 3 个:
|
我觉得主要原因有下面 3 个:
|
||||||
|
|
||||||
1. 单线程编程容易并且更容易维护;
|
1. 单线程编程容易并且更容易维护;
|
||||||
2. Redis 的性能瓶颈不再 CPU ,主要在内存和网络;
|
2. Redis 的性能瓶颈不在 CPU ,主要在内存和网络;
|
||||||
3. 多线程就会存在死锁、线程上下文切换等问题,甚至会影响性能。
|
3. 多线程就会存在死锁、线程上下文切换等问题,甚至会影响性能。
|
||||||
|
|
||||||
### 9. Redis6.0 之后为何引入了多线程?
|
### 9. Redis6.0 之后为何引入了多线程?
|
||||||
|
|
||||||
**Redis6.0 引入多线程主要是为了提高网络 IO 读写性能**,因为这个算是 Redis 中的一个性能瓶颈(Redis 的瓶颈主要受限于内存和网络)。
|
**Redis6.0 引入多线程主要是为了提高网络 IO 读写性能**,因为这个算是 Redis 中的一个性能瓶颈(Redis 的瓶颈主要受限于内存和网络)。
|
||||||
|
|
||||||
虽然,Redis6.0 引入了多线程,但是 Redis 的多线程只是在网络数据的读写这类耗时操作上使用了, 执行命令仍然是单线程顺序执行。因此,你也不需要担心线程安全问题。
|
虽然,Redis6.0 引入了多线程,但是 Redis 的多线程只是在网络数据的读写这类耗时操作上使用了,执行命令仍然是单线程顺序执行。因此,你也不需要担心线程安全问题。
|
||||||
|
|
||||||
Redis6.0 的多线程默认是禁用的,只使用主线程。如需开启需要修改 redis 配置文件 `redis.conf` :
|
Redis6.0 的多线程默认是禁用的,只使用主线程。如需开启需要修改 redis 配置文件 `redis.conf` :
|
||||||
|
|
||||||
@ -510,7 +508,7 @@ OK
|
|||||||
(integer) 56
|
(integer) 56
|
||||||
```
|
```
|
||||||
|
|
||||||
注意:**Redis 中除了字符串类型有自己独有设置过期时间的命令 `setex` 外,其他方法都需要依靠 `expire` 命令来设置过期时间 。另外, `persist` 命令可以移除一个键的过期时间: **
|
注意:**Redis 中除了字符串类型有自己独有设置过期时间的命令 `setex` 外,其他方法都需要依靠 `expire` 命令来设置过期时间 。另外, `persist` 命令可以移除一个键的过期时间。 **
|
||||||
|
|
||||||
**过期时间除了有助于缓解内存的消耗,还有什么其他用么?**
|
**过期时间除了有助于缓解内存的消耗,还有什么其他用么?**
|
||||||
|
|
||||||
@ -549,7 +547,7 @@ typedef struct redisDb {
|
|||||||
|
|
||||||
但是,仅仅通过给 key 设置过期时间还是有问题的。因为还是可能存在定期删除和惰性删除漏掉了很多过期 key 的情况。这样就导致大量过期 key 堆积在内存里,然后就 Out of memory 了。
|
但是,仅仅通过给 key 设置过期时间还是有问题的。因为还是可能存在定期删除和惰性删除漏掉了很多过期 key 的情况。这样就导致大量过期 key 堆积在内存里,然后就 Out of memory 了。
|
||||||
|
|
||||||
怎么解决这个问题呢?答案就是: **Redis 内存淘汰机制。**
|
怎么解决这个问题呢?答案就是:**Redis 内存淘汰机制。**
|
||||||
|
|
||||||
### 13. Redis 内存淘汰机制了解么?
|
### 13. Redis 内存淘汰机制了解么?
|
||||||
|
|
||||||
@ -566,7 +564,7 @@ Redis 提供 6 种数据淘汰策略:
|
|||||||
|
|
||||||
4.0 版本后增加以下两种:
|
4.0 版本后增加以下两种:
|
||||||
|
|
||||||
7. **volatile-lfu(least frequently used)**:从已设置过期时间的数据集(server.db[i].expires)中挑选最不经常使用的数据淘汰
|
7. **volatile-lfu(least frequently used)**:从已设置过期时间的数据集(server.db[i].expires)中挑选最不经常使用的数据淘汰
|
||||||
8. **allkeys-lfu(least frequently used)**:当内存不足以容纳新写入数据时,在键空间中,移除最不经常使用的 key
|
8. **allkeys-lfu(least frequently used)**:当内存不足以容纳新写入数据时,在键空间中,移除最不经常使用的 key
|
||||||
|
|
||||||
### 14. Redis 持久化机制(怎么保证 Redis 挂掉之后再重启数据可以进行恢复)
|
### 14. Redis 持久化机制(怎么保证 Redis 挂掉之后再重启数据可以进行恢复)
|
||||||
@ -591,7 +589,7 @@ save 60 10000 #在60秒(1分钟)之后,如果至少有10000个key发生
|
|||||||
|
|
||||||
**AOF(append-only file)持久化**
|
**AOF(append-only file)持久化**
|
||||||
|
|
||||||
与快照持久化相比,AOF 持久化 的实时性更好,因此已成为主流的持久化方案。默认情况下 Redis 没有开启 AOF(append only file)方式的持久化,可以通过 appendonly 参数开启:
|
与快照持久化相比,AOF 持久化的实时性更好,因此已成为主流的持久化方案。默认情况下 Redis 没有开启 AOF(append only file)方式的持久化,可以通过 appendonly 参数开启:
|
||||||
|
|
||||||
```conf
|
```conf
|
||||||
appendonly yes
|
appendonly yes
|
||||||
@ -623,7 +621,7 @@ AOF 重写可以产生一个新的 AOF 文件,这个新的 AOF 文件和原有
|
|||||||
|
|
||||||
AOF 重写是一个有歧义的名字,该功能是通过读取数据库中的键值对来实现的,程序无须对现有 AOF 文件进行任何读入、分析或者写入操作。
|
AOF 重写是一个有歧义的名字,该功能是通过读取数据库中的键值对来实现的,程序无须对现有 AOF 文件进行任何读入、分析或者写入操作。
|
||||||
|
|
||||||
在执行 BGREWRITEAOF 命令时,Redis 服务器会维护一个 AOF 重写缓冲区,该缓冲区会在子进程创建新 AOF 文件期间,记录服务器执行的所有写命令。当子进程完成创建新 AOF 文件的工作之后,服务器会将重写缓冲区中的所有内容追加到新 AOF 文件的末尾,使得新旧两个 AOF 文件所保存的数据库状态一致。最后,服务器用新的 AOF 文件替换旧的 AOF 文件,以此来完成 AOF 文件重写操作
|
在执行 BGREWRITEAOF 命令时,Redis 服务器会维护一个 AOF 重写缓冲区,该缓冲区会在子进程创建新 AOF 文件期间,记录服务器执行的所有写命令。当子进程完成创建新 AOF 文件的工作之后,服务器会将重写缓冲区中的所有内容追加到新 AOF 文件的末尾,使得新旧两个 AOF 文件所保存的数据库状态一致。最后,服务器用新的 AOF 文件替换旧的 AOF 文件,以此来完成 AOF 文件重写操作。
|
||||||
|
|
||||||
### 15. Redis 事务
|
### 15. Redis 事务
|
||||||
|
|
||||||
@ -641,7 +639,7 @@ QUEUED
|
|||||||
2) "Guide哥"
|
2) "Guide哥"
|
||||||
```
|
```
|
||||||
|
|
||||||
使用 [`MULTI`](https://redis.io/commands/multi)命令后可以输入多个命令。Redis 不会立即执行这些命令,而是将它们放到队列,当调用了[`EXEC`](https://redis.io/commands/exec)命令将执行所有命令。
|
使用 [`MULTI`](https://redis.io/commands/multi) 命令后可以输入多个命令。Redis 不会立即执行这些命令,而是将它们放到队列,当调用了 [`EXEC`](https://redis.io/commands/exec) 命令将执行所有命令。
|
||||||
|
|
||||||
这个过程是这样的:
|
这个过程是这样的:
|
||||||
|
|
||||||
@ -810,7 +808,7 @@ Cache Aside Pattern 中遇到写请求是这样的:更新 DB,然后直接删
|
|||||||
如果更新数据库成功,而删除缓存这一步失败的情况的话,简单说两个解决方案:
|
如果更新数据库成功,而删除缓存这一步失败的情况的话,简单说两个解决方案:
|
||||||
|
|
||||||
1. **缓存失效时间变短(不推荐,治标不治本)** :我们让缓存数据的过期时间变短,这样的话缓存就会从数据库中加载数据。另外,这种解决办法对于先操作缓存后操作数据库的场景不适用。
|
1. **缓存失效时间变短(不推荐,治标不治本)** :我们让缓存数据的过期时间变短,这样的话缓存就会从数据库中加载数据。另外,这种解决办法对于先操作缓存后操作数据库的场景不适用。
|
||||||
2. **增加 cache 更新重试机制(常用)**: 如果 cache 服务当前不可用导致缓存删除失败的话,我们就隔一段时间进行重试,重试次数可以自己定。如果多次重试还是失败的话,我们可以把当前更新失败的 key 存入队列中,等缓存服务可用之后,再将 缓存中对应的 key 删除即可。
|
2. **增加 cache 更新重试机制(常用)**: 如果 cache 服务当前不可用导致缓存删除失败的话,我们就隔一段时间进行重试,重试次数可以自己定。如果多次重试还是失败的话,我们可以把当前更新失败的 key 存入队列中,等缓存服务可用之后,再将缓存中对应的 key 删除即可。
|
||||||
|
|
||||||
### 19. 参考
|
### 19. 参考
|
||||||
|
|
||||||
|
@ -77,7 +77,7 @@
|
|||||||
- 优化参数不一致:内存不一致.
|
- 优化参数不一致:内存不一致.
|
||||||
- 避免全量复制
|
- 避免全量复制
|
||||||
- 选择小主节点(分片)、低峰期间操作.
|
- 选择小主节点(分片)、低峰期间操作.
|
||||||
- 如果节点运行 id 不匹配(如主节点重启、运行 id 发送变化),此时要执行全量复制,应该配合哨兵和集群解决.
|
- 如果节点运行 id 不匹配(如主节点重启、运行 id 发生变化),此时要执行全量复制,应该配合哨兵和集群解决.
|
||||||
- 主从复制挤压缓冲区不足产生的问题(网络中断,部分复制无法满足),可增大复制缓冲区( rel_backlog_size 参数).
|
- 主从复制挤压缓冲区不足产生的问题(网络中断,部分复制无法满足),可增大复制缓冲区( rel_backlog_size 参数).
|
||||||
- 复制风暴
|
- 复制风暴
|
||||||
|
|
||||||
@ -111,7 +111,7 @@
|
|||||||
- 转移流程
|
- 转移流程
|
||||||
1. Sentinel 选出一个合适的 Slave 作为新的 Master(slaveof no one 命令)。
|
1. Sentinel 选出一个合适的 Slave 作为新的 Master(slaveof no one 命令)。
|
||||||
2. 向其余 Slave 发出通知,让它们成为新 Master 的 Slave( parallel-syncs 参数)。
|
2. 向其余 Slave 发出通知,让它们成为新 Master 的 Slave( parallel-syncs 参数)。
|
||||||
3. 等待旧 Master 复活,并使之称为新 Master 的 Slave。
|
3. 等待旧 Master 复活,并使之成为新 Master 的 Slave。
|
||||||
4. 向客户端通知 Master 变化。
|
4. 向客户端通知 Master 变化。
|
||||||
- 从 Slave 中选择新 Master 节点的规则(slave 升级成 master 之后)
|
- 从 Slave 中选择新 Master 节点的规则(slave 升级成 master 之后)
|
||||||
1. 选择 slave-priority 最高的节点。
|
1. 选择 slave-priority 最高的节点。
|
||||||
@ -138,7 +138,7 @@
|
|||||||
|
|
||||||
##### 集中式
|
##### 集中式
|
||||||
|
|
||||||
> 将集群元数据(节点信息、故障等等)几种存储在某个节点上。
|
> 将集群元数据(节点信息、故障等等)集中存储在某个节点上。
|
||||||
- 优势
|
- 优势
|
||||||
1. 元数据的更新读取具有很强的时效性,元数据修改立即更新
|
1. 元数据的更新读取具有很强的时效性,元数据修改立即更新
|
||||||
- 劣势
|
- 劣势
|
||||||
|
Loading…
x
Reference in New Issue
Block a user