初识Redis的数据类型HyperLogLog
Posted Throwable
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了初识Redis的数据类型HyperLogLog相关的知识,希望对你有一定的参考价值。
前提
未来一段时间开发的项目或者需求会大量使用到Redis
,趁着这段时间业务并不太繁忙,抽点时间预习和复习Redis
的相关内容。刚好看到博客下面的UV
和PV
统计,想到了最近看书里面提到的HyperLogLog
数据类型,于是花点时间分析一下它的使用方式和使用场景(暂时不探究HyperLogLog
的实现原理)。Redis
中HyperLogLog
数据类型是Redid 2.8.9
引入的,使用的时候确保Redis
版本>= 2.8.9
。
HyperLogLog简介
基数计数(cardinality counting)
,通常用来统计一个集合中不重复的元素个数。一个很常见的例子就是统计某个文章的UV
(Unique Visitor
,独立访客,一般可以理解为客户端IP
)。大数据量背景下,要实现基数计数,多数情况下不会选择存储全量的基数集合的元素,因为可以计算出存储的内存成本,假设一个每个被统计的元素的平均大小为32bit
,那么如果统计一亿个数据,占用的内存大小为:
32 * 100000000 / 8 / 1024 / 1024 ≈ 381M
。
如果有多个集合,并且允许计算多个集合的合并计数结果,那么这个操作带来的复杂度可能是毁灭性的。因此,不会使用Bitmap
、Tree
或者HashSet
等数据结构直接存储计数元素集合的方式进行计数,而是在不追求绝对准确计数结果的前提之下,使用基数计数的概率算法进行计数,目前常见的有概率算法以下三种:
Linear Counting(LC)
。LogLog Counting(LLC)
。HyperLogLog Counting(HLL)
。
所以,HyperLogLog其实是一种基数计数概率算法,并不是Redis特有的,Redis基于C语言实现了HyperLogLog并且提供了相关命令API入口。
Redis
的作者Antirez
为了纪念Philippe Flajolet对组合数学和基数计算算法分析的研究,所以在设计HyperLogLog
命令的时候使用了Philippe Flajolet
姓名的英文首字母PF
作为前缀。也就是说,Philippe Flajolet
博士是HLL
算法的重大贡献者,但是他其实并不是Redis
中HyperLogLog
数据类型的开发者。遗憾的是Philippe Flajolet
博士于2011年3月22日因病在巴黎辞世。这个是Philippe Flajolet
博士的维基百科照片:
Redis
提供的HyperLogLog
数据类型的特征:
- 基本特征:使用
HyperLogLog Counting(HLL)
实现,只做基数计算,不会保存元数据。 - 内存占用:
HyperLogLog
每个KEY
最多占用12K
的内存空间,可以计算接近2^64
个不同元素的基数,它的存储空间采用稀疏矩阵存储,空间占用很小,仅仅在计数基数个数慢慢变大,稀疏矩阵占用空间渐渐超过了阈值时才会一次性转变成稠密矩阵,转变成稠密矩阵之后才会占用12K
的内存空间。 - 计数误差范围:基数计数的结果是一个标准误差(
Standard Error
)为0.81%
的近似值,当数据量不大的时候,得到的结果也可能是一个准确值。
内存占用小(每个KEY最高占用12K)是HyperLogLog
的最大优势,而它存在两个相对明显的限制:
- 计算结果并不是准确值,存在标准误差,这是由于它本质上是用概率算法导致的。
- 不保存基数的元数据,这一点对需要使用元数据进行数据分析的场景并不友好。
HyperLogLog命令使用
Redis
提供的HyperLogLog
数据类型一共有三个命令API
:PFADD
、PFCOUNT
和PFMERGE
。
PFADD
PFADD
命令参数如下:
PFADD key element [element …]
支持此命令的Redis版本是:>= 2.8.9
时间复杂度:每添加一个元素的复杂度为O(1)
- 功能:将所有元素参数
element
添加到键为key
的HyperLogLog
数据结构中。
PFADD
命令的执行流程如下:
PFADD
命令的使用方式如下:
127.0.0.1:6379> PFADD food apple fish
(integer) 1
127.0.0.1:6379> PFADD food apple
(integer) 0
127.0.0.1:6379> PFADD throwable
(integer) 1
127.0.0.1:6379> SET name doge
OK
127.0.0.1:6379> PFADD name throwable
(error) WRONGTYPE Key is not a valid HyperLogLog string value.
虽然HyperLogLog
数据结构本质是一个字符串,但是不能在String
类型的KEY
使用HyperLogLog
的相关命令。
PFCOUNT
PFCOUNT
命令参数如下:
PFCOUNT key [key …]
支持此命令的Redis版本是:>= 2.8.9
时间复杂度:返回单个HyperLogLog的基数计数值的复杂度为O(1),平均常数时间比较低。当参数为多个key的时候,复杂度为O(N),N为key的个数。
- 当
PFCOUNT
命令使用单个key
的时候,返回储存在给定键的HyperLogLog
数据结构的近似基数,如果键不存在, 则返回0
。 - 当
PFCOUNT
命令使用多个key
的时候,返回储存在给定的所有HyperLogLog
数据结构的并集的近似基数,也就是会把所有的HyperLogLog
数据结构合并到一个临时的HyperLogLog
数据结构,然后计算出近似基数。
PFCOUNT
命令的使用方式如下:
127.0.0.1:6379> PFADD POST:1 ip-1 ip-2
(integer) 1
127.0.0.1:6379> PFADD POST:2 ip-2 ip-3 ip-4
(integer) 1
127.0.0.1:6379> PFCOUNT POST:1
(integer) 2
127.0.0.1:6379> PFCOUNT POST:1 POST:2
(integer) 4
127.0.0.1:6379> PFCOUNT NOT_EXIST_KEY
(integer) 0
PFMERGE
PFMERGE
命令参数如下:
PFMERGE destkey sourcekey [sourcekey ...]
支持此命令的Redis版本是:>= 2.8.9
时间复杂度:O(N),其中N为被合并的HyperLogLog数据结构的数量,此命令的常数时间比较高
- 功能:把多个
HyperLogLog
数据结构合并为一个新的键为destkey
的HyperLogLog
数据结构,合并后的HyperLogLog
的基数接近于所有输入HyperLogLog
的可见集合(Observed Set
)的并集的基数。 - 命令返回值:只会返回字符串
OK
。
PFMERGE
命令的使用方式如下
127.0.0.1:6379> PFADD POST:1 ip-1 ip-2
(integer) 1
127.0.0.1:6379> PFADD POST:2 ip-2 ip-3 ip-4
(integer) 1
127.0.0.1:6379> PFMERGE POST:1-2 POST:1 POST:2
OK
127.0.0.1:6379> PFCOUNT POST:1-2
(integer) 4
使用HyperLogLog统计UV的案例
假设现在有个简单的场景,就是统计博客文章的UV
,要求UV
的计数不需要准确,也不需要保存客户端的IP
数据。下面就这个场景,使用HyperLogLog
做一个简单的方案和编码实施。
这个流程可能步骤的先后顺序可能会有所调整,但是要做的操作是基本不变的。先简单假设,文章的内容和统计数据都是后台服务返回的,两个接口是分开设计。引入Redis
的高级客户端Lettuce
依赖:
<dependency>
<groupId>io.lettuce</groupId>
<artifactId>lettuce-core</artifactId>
<version>5.2.1.RELEASE</version>
</dependency>
编码如下:
public class UvTest {
private static RedisCommands<String, String> COMMANDS;
@BeforeClass
public static void beforeClass() throws Exception {
// 初始化Redis客户端
RedisURI uri = RedisURI.builder().withHost("localhost").withPort(6379).build();
RedisClient redisClient = RedisClient.create(uri);
StatefulRedisConnection<String, String> connect = redisClient.connect();
COMMANDS = connect.sync();
}
@Data
public static class PostDetail {
private Long id;
private String content;
}
private PostDetail selectPostDetail(Long id) {
PostDetail detail = new PostDetail();
detail.setContent("content");
detail.setId(id);
return detail;
}
private PostDetail getPostDetail(String clientIp, Long postId) {
PostDetail detail = selectPostDetail(postId);
String key = "puv:" + postId;
COMMANDS.pfadd(key, clientIp);
return detail;
}
private Long getPostUv(Long postId) {
String key = "puv:" + postId;
return COMMANDS.pfcount(key);
}
@Test
public void testViewPost() throws Exception {
Long postId = 1L;
getPostDetail("111.111.111.111", postId);
getPostDetail("111.111.111.222", postId);
getPostDetail("111.111.111.333", postId);
getPostDetail("111.111.111.444", postId);
System.out.println(String.format("The uv count of post [%d] is %d", postId, getPostUv(postId)));
}
}
输出结果:
The uv count of post [1] is 4
可以适当使用更多数量的不同客户端IP
调用getPostDetail()
,然后统计一下误差。
题外话-如何准确地统计UV
如果想要准确统计UV
,则需要注意几个点:
- 内存或者磁盘容量需要准备充足,因为就目前的基数计数算法来看,没有任何算法可以在不保存元数据的前提下进行准确计数。
- 如果需要做用户行为分析,那么元数据最终需要持久化,这一点应该依托于大数据体系,在这一方面笔者没有经验,所以暂时不多说。
假设在不考虑内存成本的前提下,我们依然可以使用Redis
做准确和实时的UV
统计,简单就可以使用Set
数据类型,增加UV
只需要使用SADD
命令,统计UV
只需要使用SCARD
命令(时间复杂度为O(1)
,可以放心使用)。举例:
127.0.0.1:6379> SADD puv:1 ip-1 ip-2
(integer) 2
127.0.0.1:6379> SADD puv:1 ip-3 ip-4
(integer) 2
127.0.0.1:6379> SCARD puv:1
(integer) 4
如果这些统计数据仅仅是用户端展示,那么可以采用异步设计:
在体量小的时候,上面的所有应用的功能可以在同一个服务中完成,消息队列可以用线程池的异步方案替代。
小结
这篇文章只是简单介绍了HyperLogLog
的使用和统计UV
的使用场景。总的来说就是:在(1)原始数据量巨大,(2)内存占用要求尽可能小,(3)允许计数存在一定误差并且(4)不要求存放元数据的场景下,可以优先考虑使用HyperLogLog
进行计数。
参考资料:
(本文完 c-3-d e-a-20191117)
!-->以上是关于初识Redis的数据类型HyperLogLog的主要内容,如果未能解决你的问题,请参考以下文章
Redis学习笔记13Redis数据类型之HyperLogLogs类型
redis入门到精通系列:redis高级数据类型详解(BitMaps,HyperLogLog,GEO)
redis入门到精通系列:redis高级数据类型详解(BitMaps,HyperLogLog,GEO)
Redis入门--- 五大数据类型 以及三大特殊类型 ---Zset,Geospatial,Hyperloglog,Bitmap