Redis 很屌,不懂使用规范就糟蹋了
Posted 架构师社区
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Redis 很屌,不懂使用规范就糟蹋了相关的知识,希望对你有一定的参考价值。
命名,才能提供可读性强、可维护性高的 key,便于定位问题和寻找数据。
value
要避免出现 bigkey
、选择高效的序列化和压缩、使用对象共享池、选择高效恰当的数据类型(可参考《Redis 实战篇:巧用数据类型实现亿级数据统计》)。敲黑板
把「业务模块名」作为前缀(好比数据库 Scheme
),通过「冒号」分隔,再加上「具体业务名」。
这样我们就可以通过 key
前缀来区分不同的业务数据,清晰明了。
总结起来就是:「业务名:表名:id」
比如我们要统计公众号属于技术类型的博主「码哥字节」的粉丝数。
的读写操作就会阻塞线程,降低 Redis 的处理效率。bigkey
包含两种情况:
键值对的 value
很大,比如 value
保存了 2MB
的 String
数据; 键值对的 value
是集合类型,元素很多,比如保存了 5 万个元素的 List
集合。 虽然 Redis 官方说明了 key
和string
类型 value
限制均为512MB
。
防止网卡流量、慢查询,string
类型控制在10KB
以内,hash、list、set、zset
元素个数不要超过 5000。
数据压缩来减小数据大小:/**
* 使用gzip压缩字符串
*/
public static String compress(String str)
if (str == null || str.length() == 0)
return str;
try (ByteArrayOutputStream out = new ByteArrayOutputStream();
GZIPOutputStream gzip = new GZIPOutputStream(out))
gzip.write(str.getBytes());
catch (IOException e)
e.printStackTrace();
return new sun.misc.BASE64Encoder().encode(out.toByteArray());
/**
* 使用gzip解压缩
*/
public static String uncompress(String compressedStr)
if (compressedStr == null || compressedStr.length() == 0)
return compressedStr;
byte[] compressed = new sun.misc.BASE64Decoder().decodeBuffer(compressedStr);;
String decompressed = null;
try (ByteArrayOutputStream out = new ByteArrayOutputStream();
ByteArrayInputStream in = new ByteArrayInputStream(compressed);
GZIPInputStream ginzip = new GZIPInputStream(in);)
byte[] buffer = new byte[1024];
int offset = -1;
while ((offset = ginzip.read(buffer)) != -1)
out.write(buffer, 0, offset);
decompressed = out.toString();
catch (IOException e)
e.printStackTrace();
return decompressed;
集合类型
如果集合类型的元素的确很多,我们可以将一个大集合拆分成多个小集合来保存。
使用高效序列化和压缩方法为了节省内存,我们可以使用高效的序列化方法和压缩方法去减少 value
的大小。
protostuff
和 kryo
这两种序列化方法,就要比 Java
内置的序列化方法效率更高。
上述的两种序列化方式虽然省内存,但是序列化后都是二进制数据,可读性太差。
通常我们会序列化成 JSON
或者 XML
,为了避免数据占用空间大,我们可以使用压缩工具(snappy、 gzip)将数据压缩再存到 Redis 中。
使用整数对象共享池Redis 内部维护了 0 到 9999 这 1 万个整数对象,并把这些整数作为一个共享池使用。
即使大量键值对保存了 0 到 9999 范围内的整数,在 Redis 实例中,其实只保存了一份整数对象,可以节省内存空间。
需要注意的是,有两种情况是不生效的:
Redis 中设置了 maxmemory
,而且启用了 LRU
策略(allkeys-lru 或 volatile-lru 策略
),那么,整数对象共享池就无法使用了。
❝这是因为 LRU 需要统计每个键值对的使用时间,如果不同的键值对都复用一个整数对象就无法统计了。
如果集合类型数据采用 ziplist 编码,而集合元素是整数,这个时候,也不能使用共享池。
❝因为 ziplist 使用了紧凑型内存结构,判断整数对象的共享情况效率低。
命令使用规范有的命令的执行会造成很大的性能问题,我们需要格外注意。
生产禁用的指令Redis 是单线程处理请求操作,如果我们执行一些涉及大量操作、耗时长的命令,就会严重阻塞主线程,导致其它请求无法得到正常处理。
KEYS:该命令需要对 Redis 的全局哈希表进行全表扫描,严重阻塞 Redis 主线程;
❝应该使用 SCAN 来代替,分批返回符合条件的键值对,避免主线程阻塞。
FLUSHALL:删除 Redis 实例上的所有数据,如果数据量很大,会严重阻塞 Redis 主线程;
FLUSHDB,删除当前数据库中的数据,如果数据量很大,同样会阻塞 Redis 主线程。
❝加上 ASYNC 选项,让 FLUSHALL,FLUSHDB 异步执行。
我们也可以直接禁用,用rename-command
命令在配置文件中对这些命令进行重命名,让客户端无法使用这些命令。
慎用 MONITOR 命令MONITOR 命令会把监控到的内容持续写入输出缓冲区。
如果线上命令的操作很多,输出缓冲区很快就会溢出了,这就会对 Redis 性能造成影响,甚至引起服务崩溃。
所以,除非十分需要监测某些命令的执行(例如,Redis 性能突然变慢,我们想查看下客户端执行了哪些命令)我们才使用。
慎用全量操作命令比如获取集合中的所有元素(HASH 类型的 hgetall、List 类型的 lrange、Set 类型的 smembers、zrange 等命令)。
这些操作会对整个底层数据结构进行全量扫描 ,导致阻塞 Redis 主线程。
❝码哥,如果业务场景就是需要获取全量数据咋办?
有两个方式可以解决:
使用 SSCAN、HSCAN
等命令分批返回集合数据; 把大集合拆成小集合,比如按照时间、区域等划分。
数据保存规范冷热数据分离虽然 Redis 支持使用 RDB 快照和 AOF 日志持久化保存数据,但是,这两个机制都是用来提供数据可靠性保证的,并不是用来扩充数据容量的。
不要什么数据都存在 Redis,应该作为缓存保存热数据,这样既可以充分利用 Redis 的高性能特性,还可以把宝贵的内存资源用在服务热数据上。
业务数据隔离不要将不相关的数据业务都放到一个 Redis 中。一方面避免业务相互影响,另一方面避免单实例膨胀,并能在故障时降低影响面,快速恢复。
设置过期时间在数据保存时,我建议你根据业务使用数据的时长,设置数据的过期时间。
写入 Redis 的数据会一直占用内存,如果数据持续增多,就可能达到机器的内存上限,造成内存溢出,导致服务崩溃。
控制单实例的内存容量建议设置在 2~6 GB 。这样一来,无论是 RDB 快照,还是主从集群进行数据同步,都能很快完成,不会阻塞正常请求的处理。
防止缓存雪崩避免集中过期 key 导致缓存雪崩。
❝码哥,什么是缓存雪崩?
当某一个时刻出现大规模的缓存失效的情况,那么就会导致大量的请求直接打在数据库上面,导致数据库压力巨大,如果在高并发的情况下,可能瞬间就会导致数据库宕机。
运维规范使用 Cluster 集群或者哨兵集群,做到高可用; 实例设置最大连接数,防止过多客户端连接导致实例负载过高,影响性能。 不开启 AOF 或开启 AOF 配置为每秒刷盘,避免磁盘 IO 拖慢 Redis 性能。 设置合理的 repl-backlog,降低主从全量同步的概率 设置合理的 slave client-output-buffer-limit,避免主从复制中断情况发生。 根据实际场景设置合适的内存淘汰策略。 使用连接池操作 Redis。
还不懂Redis?看完这个故事就明白了!
我是Redis
你好,我是Redis,一个叫Antirez的男人把我带到了这个世界上。
说起我的诞生,跟关系数据库MySQL还挺有渊源的。
在我还没来到这个世界上的时候,MySQL过的很辛苦,互联网发展的越来越快,它容纳的数据也越来越多,用户请求也随之暴涨,而每一个用户请求都变成了对它的一个又一个读写操作,MySQL是苦不堪言。尤其是到“双11”、“618“这种全民购物狂欢的日子,都是MySQL受苦受难的日子。
据后来MySQL告诉我说,其实有一大半的用户请求都是读操作,而且经常都是重复查询一个东西,浪费它很多时间去进行磁盘I/O。
后来有人就琢磨,是不是可以学学CPU,给数据库也加一个缓存呢?于是我就诞生了!
出生不久,我就和MySQL成为了好朋友,我们俩常常携手出现在后端服务器中。
应用程序们从MySQL查询到的数据,在我这里登记一下,后面再需要用到的时候,就先找我要,我这里没有再找MySQL要。
为了方便使用,我支持好几种数据结构的存储:
-
String
-
Hash
-
List
-
Set
-
SortedSet
-
Bitmap
-
······
因为我把登记的数据都记录在内存中,不用去执行慢如蜗牛的I/O操作,所以找我要比找MySQL要省去了不少的时间呢。
可别小瞧这简单的一个改变,我可为MySQL减轻了不小的负担!随着程序的运行,我缓存的数据越来越多,有相当部分时间我都给它挡住了用户请求,这一下它可乐得清闲自在了!
有了我的加入,网络服务的性能提升了不少,这都归功于我为数据库挨了不少枪子儿。
缓存过期 && 缓存淘汰
不过很快我发现事情不妙了,我缓存的数据都是在内存中,可是就算是在服务器上,内存的空间资源还是很有限的,不能无节制的这么存下去,我得想个办法,不然吃枣药丸。
不久,我想到了一个办法:给缓存内容设置一个超时时间,具体设置多长交给应用程序们去设置,我要做的就是把过期了的内容从我里面删除掉,及时腾出空间就行了。
超时时间有了,我该在什么时候去干这个清理的活呢?
最简单的就是定期删除,我决定100ms就做一次,一秒钟就是10次!
我清理的时候也不能一口气把所有过期的都给删除掉,我这里面存了大量的数据,要全面扫一遍的话那不知道要花多久时间,会严重影响我接待新的客户请求的!
时间紧任务重,我只好随机选择一部分来清理,能缓解内存压力就行了。
就这样过了一段日子,我发现有些个键值运气比较好,每次都没有被我的随机算法选中,每次都能幸免于难,这可不行,这些长时间过期的数据一直霸占着不少的内存空间!气抖冷!
我眼里可揉不得沙子!于是在原来定期删除的基础上,又加了一招:
那些原来逃脱我随机选择算法的键值,一旦遇到查询请求,被我发现已经超期了,那我就绝不客气,立即删除。
这种方式因为是被动式触发的,不查询就不会发生,所以也叫惰性删除!
可是,还是有部分键值,既逃脱了我的随机选择算法,又一直没有被查询,导致它们一直逍遥法外!而于此同时,可以使用的内存空间却越来越少。
而且就算退一步讲,我能够把过期的数据都删除掉,那万一过期时间设置的很长,还没等到我去清理,内存就吃满了,一样要吃枣药丸,所以我还得想个办法。
我苦思良久,终于憋出了个大招:内存淘汰策略,这一次我要彻底解决问题!
我提供了8种策略供应用程序选择,用于我遇到内存不足时该如何决策:
-
noeviction:返回错误,不会删除任何键值
-
allkeys-lru:使用LRU算法删除最近最少使用的键值
-
volatile-lru:使用LRU算法从设置了过期时间的键集合中删除最近最少使用的键值
-
allkeys-random:从所有key随机删除
-
volatile-random:从设置了过期时间的键的集合中随机删除
-
volatile-ttl:从设置了过期时间的键中删除剩余时间最短的键
-
volatile-lfu:从配置了过期时间的键中删除使用频率最少的键
-
allkeys-lfu:从所有键中删除使用频率最少的键
有了上面几套组合拳,我再也不用担心过期数据多了把空间撑满的问题了~
缓存穿透 && 布隆过滤器
我的日子过的还挺舒坦,不过MySQL大哥就没我这么舒坦了,有时候遇到些烦人的请求,查询的数据不存在,MySQL就要白忙活一场!不仅如此,因为不存在,我也没法缓存啊,导致同样的请求来了每次都要去让MySQL白忙活一场。我作为缓存的价值就没得到体现啦!这就是人们常说的缓存穿透。
这一来二去,MySQL大哥忍不住了:“唉,兄弟,能不能帮忙想个办法,把那些明知道不会有结果的查询请求给我挡一下”
这时我想到了我的另外一个好朋友:布隆过滤器
我这位朋友别的本事没有,就擅长从超大的数据集中快速告诉你查找的数据存不存在(悄悄告诉你,我的这位朋友有一点不靠谱,它告诉你存在的话不能全信,其实有可能是不存在的,不过它他要是告诉你不存在的话,那就一定不存在)。
如果你对我这位朋友感兴趣的话,可以看看这里《白话布隆过滤器BloomFilter》。
我把这位朋友介绍给了应用程序,不存在的数据就不必去叨扰MySQL了,轻松帮忙解决了缓存穿透的问题。
缓存击穿 && 缓存雪崩
这之后过了一段时间太平日子,直到那一天···
有一次,MySQL那家伙正优哉游哉的摸鱼,突然一大堆请求给他怼了过去,给他打了一个措手不及。
一阵忙活之后,MySQL怒气冲冲的找到了我,“兄弟,咋回事啊,怎么一下子来的这么猛”
我查看了日志,赶紧解释到:“大哥,实在不好意思,刚刚有一个热点数据到了过期时间,被我删掉了,不巧的是随后就有对这个数据的大量查询请求来了,我这里已经删了,所以请求都发到你那里来了”
“你这干的叫啥事,下次注意点啊”,MySQL大哥一脸不高兴的离开了。
这一件小事我也没怎么放在心上,随后就抛之脑后了,却没曾想几天之后竟捅了更大的篓子。
那一天,又出现了大量的网络请求发到了MySQL那边,比上一次的规模大得多,MySQL大哥一会儿功夫就给干趴下了好几次!
等了好半天这一波流量才算过去,MySQL才缓过神来。
“老弟,这一次又是什么原因?”,MySQL大哥累的没了力气。
“这一次比上一次更不巧,这一次是一大批数据几乎同时过了有效期,然后又发生了很多对这些数据的请求,所以比起上一次这规模更大了”
MySQL大哥听了眉头一皱,“那你倒是想个办法啊,三天两头折磨我,这谁顶得住啊?”
“其实我也很无奈,这个时间也不是我设置的,要不我去找应用程序说说,让他把缓存过期时间设置的均匀一些?至少别让大量数据集体失效”
“走,咱俩一起去”
后来,我俩去找应用程序商量了,不仅把键值的过期时间随机了一下,还设置了热点数据永不过期,这个问题缓解了不少。哦对了,我们还把这两次发生的问题分别取了个名字:缓存击穿和缓存雪崩。
我们终于又过上了舒适的日子···
彩蛋
那天,我正在努力工作中,不小心出了错,整个进程都崩溃了。
当我再次启动后,之前缓存的数据全都没了,暴风雨似的请求再一次全都怼到了MySQL大哥那里。
唉,要是我能够记住崩溃前缓存的内容就好了···
预知后事如何,请关注后续精彩······
往期TOP5文章
以上是关于Redis 很屌,不懂使用规范就糟蹋了的主要内容,如果未能解决你的问题,请参考以下文章