mirror of
https://github.com/Snailclimb/JavaGuide
synced 2025-06-20 22:17:09 +08:00
Update Kafka常见面试题总结.md
This commit is contained in:
parent
3d92eca239
commit
83519ffcb4
@ -207,17 +207,17 @@ acks 的默认值即为1,代表我们的消息被leader副本接收之后就
|
||||
|
||||
### Kafka 如何保证消息不重复消费
|
||||
|
||||
1. **kafka出现消息重复消费的原因**
|
||||
* 服务端侧 已经消费的数据没有成功提交 offset(根本原因)
|
||||
* kafka 侧 由于服务端处理业务时间长或者网络链接等等原因让 kafka 认为服务假死,触发了分区 rebalance
|
||||
2. **解决方案**
|
||||
* 最有效:消费消息服务做幂等校验,比如redis的set、mysql的主键等天然的幂等功能
|
||||
* 将 **enable.auto.commit** 参数设置为 false,关闭自动提交,开发者在代码中手动提交 offset。那么这里会有个<br>
|
||||
问题:
|
||||
**什么时候提交offset合适?**
|
||||
**kafka出现消息重复消费的原因:**
|
||||
|
||||
- 服务端侧已经消费的数据没有成功提交 offset(根本原因)。
|
||||
- Kafka 侧 由于服务端处理业务时间长或者网络链接等等原因让 Kafka 认为服务假死,触发了分区 rebalance。
|
||||
|
||||
**解决方案:**
|
||||
|
||||
- 消费消息服务做幂等校验,比如 Redis 的set、MySQL 的主键等天然的幂等功能。这种方法最有效。
|
||||
- 将 **`enable.auto.commit`** 参数设置为 false,关闭自动提交,开发者在代码中手动提交 offset。那么这里会有个问题:**什么时候提交offset合适?**
|
||||
* 处理完消息再提交:依旧有消息重复消费的风险,和自动提交一样
|
||||
* 拉取到消息即提交:会有消息丢失的风险。允许消息延时的场景,一般会采用这种方式。然后通过定时任<br>
|
||||
务在业务不繁忙的时候做数据兜底,一般是基建较好的公司会通过大数据部门在晚上兜底
|
||||
* 拉取到消息即提交:会有消息丢失的风险。允许消息延时的场景,一般会采用这种方式。然后,通过定时任务在业务不繁忙(比如凌晨)的时候做数据兜底。
|
||||
|
||||
### Reference
|
||||
|
||||
|
Loading…
x
Reference in New Issue
Block a user