《数据结构与算法之美》18——哈希算法分布式应用
Posted liang24
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了《数据结构与算法之美》18——哈希算法分布式应用相关的知识,希望对你有一定的参考价值。
前言
上一节我们讲了哈希算法的四个应用,分别是安全加密、数据校验、唯一标识、散列函数。今天再来看看剩下的三个应用:负载均衡、数据分片、分布式存储。
可能大家已经发现了,这三个应用都是与分布式相关的。没错,今天我们来学习一下,哈希算法是如何解决这些分布式问题的。
应用五:负载均衡
负载均衡算法有很多,比如轮询、随机、加权轮询等。那如何实现一个会话粘滞(session sticky)的负载均衡算法呢?也就是说,需要在同一个客户端上,在一次会话中的所有请求都路由到同一个服务器上。
可以通过哈希算法,对客户端IP地址或者会话ID计算哈希值,将取得的哈希值与服务器列表的大小进行取模运算,最终得到的值就是应该被路由到的服务器编号。这样就可以把同一个IP过来的所有请求,都路由到同一个后端服务器上。
应用六:数据分片
哈希算法还可以用于数据的分片,下面举两个例子:
1.如何统计“搜索关键词”出现的次数?
可以先对数据进行分片,然后采用多台机器自理的方法,来提高处理速度。
具体的思路:为了提高处理的速度,我们用n台机器并行处理。我们从搜索记录的日志文件中,依次读出每个搜索关键词,并且通过哈希函数计算哈希值,然后再跟n取模,最终得到的值,就是应该被分配到的机器编号。每个机器会分别计算关键词出现的次数,最后合并起来就是最终的结果。
实际上,这个处理过程也是MapReduce的基本设计思想。
2.如何快速判断图片是否在图库中?
假设现在我们的图库中有1亿张图片,很显然,在单台机器上构建散列表是行不通的。因为单台机器的内存有限,而1亿张图片构建散列表显然远远超过了单台机器的内存上限。
同样可以对数据进行分片,然后采用多机处理。准备n台机器,让每台机器只维护某一部分图片对应的散列表。每次从图库中读取一个图片,计算唯一标识,然后与机器个数n求余取模,得到的值就对应要分配的机器编号,然后将这个图片的唯一标识和图片路径发往对应的机器构建散列表。
实际上,针对这种海量数据的处理问题,都可以采用多机分布式处理,借助这种分片的思路,可以突破单机内存、CPU等资源的限制。
应用七:分布式存储
借助前面数据分片的思想,即通过哈希算法对数据取哈希值,然后对机器个数取模,这个最终值就是数据存储的缓存机器编号。
但是,当数据增多了,原来10个机器已经无法承受了,那就需要扩容了,比如扩到11台机器,这时候麻烦就来了。
原来的数据是通过与10来取模的。比如13这个数据,存储在编号为3的机器上。但新增加了一台机器,就对11取模,原来13就被分配到2号机器上了。
因此,所有数据都要重新计算哈希值,然后重新搬移到正确的机器上。相当于缓存数据一下子就失效了。所有的数据请求都会穿透缓存,直接请求数据库,这样就可能发生雪崩效应,压垮数据库。
这时候就需要一种方法,使得在新加入一个机器后,并不需要做大量的数据搬移。这时候,一致性哈希算法就要登场了。
假设有k个机器,数据的哈希值的范围是[0,Max]。将整个范围划分成m个小区间(m远大于k),每个机器负责m/k个小区间。当有新机器加入的时候,就将某几个小区间的民,从原来的机器中搬移到新的机器中。这样,既不用全部重新哈希、搬移数据,也保持了各个机器上数据数量的均衡。
实际上,一致性哈希算法的应用非常广泛,在很多分布式存储系统中,都可以见到一致性哈希算法的影子。
以上是关于《数据结构与算法之美》18——哈希算法分布式应用的主要内容,如果未能解决你的问题,请参考以下文章