1
0
mirror of https://github.com/Snailclimb/JavaGuide synced 2025-06-20 22:17:09 +08:00

Merge pull request #607 from ambition0802/master

修改错别字
This commit is contained in:
SnailClimb 2020-01-12 12:12:52 +08:00 committed by GitHub
commit 29271e58af
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23
2 changed files with 2 additions and 2 deletions

View File

@ -293,7 +293,7 @@ Redis 通过 MULTI、EXEC、WATCH 等命令来实现事务(transaction)功能。
最基本的就是首先做好参数校验,一些不合法的参数请求直接抛出异常信息返回给客户端。比如查询的数据库 id 不能小于 0、传入的邮箱格式不对的时候直接返回错误消息给客户端等等。
**1缓存无效 key** : 如果缓存和数据库都查不到某个 key 的数据就写一个到 redis 中去并设置过期时间,具体命令如下:`SET key value EX 10086`。这种方式可以解决请求的 key 变化不频繁的情况,如何黑客恶意攻击,每次构建的不同的请求key会导致 redis 中缓存大量无效的 key 。很明显,这种方案并不能从根本上解决此问题。如果非要用这种方式来解决穿透问题的话,尽量将无效的 key 的过期时间设置短一点比如 1 分钟。
**1缓存无效 key** : 如果缓存和数据库都查不到某个 key 的数据就写一个到 redis 中去并设置过期时间,具体命令如下:`SET key value EX 10086`。这种方式可以解决请求的 key 变化不频繁的情况,如果黑客恶意攻击,每次构建不同的请求key会导致 redis 中缓存大量无效的 key 。很明显,这种方案并不能从根本上解决此问题。如果非要用这种方式来解决穿透问题的话,尽量将无效的 key 的过期时间设置短一点比如 1 分钟。
另外,这里多说一嘴,一般情况下我们是这样设计 key 的: `表名:列名:主键名:主键值`

View File

@ -50,7 +50,7 @@ Consumer Group同一个Consumer Group中的ConsumersKafka将相应Topic中
ProducerRecord对象中如果指定了partition就使用这个partition。否则根据key和topic的partition数目取余如果key也没有的话就随机生成一个counter使用这个counter来和partition数目取余。这个counter每次使用的时候递增。
**2发送到batch&&唤醒Sender 线程**
根据topic-partition获取对应的batchsDueue<ProducerBatch>然后将消息append到batch中.如果有batch满了则唤醒Sender 线程。队列的操作是加锁执行所以batch内消息时有序的。后续的Sender操作当前方法异步操作。
根据topic-partition获取对应的batchsDeque<ProducerBatch>然后将消息append到batch中.如果有batch满了则唤醒Sender 线程。队列的操作是加锁执行所以batch内消息时有序的。后续的Sender操作当前方法异步操作。
![send_msg](https://blog-article-resource.oss-cn-beijing.aliyuncs.com/kafka/send2Batch1.png)![send_msg2](https://blog-article-resource.oss-cn-beijing.aliyuncs.com/kafka/send2Batch2.png)