哈希算法与其应用
Posted 别宥之行
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了哈希算法与其应用相关的知识,希望对你有一定的参考价值。
友情提示:文章内容涉及到计算机专业知识,会有点晦涩难懂。
本文是我在学习王争的《数据结构与算法之美》时的整理和思考。
哈希算法
哈希算法的定义和原理非常简单:将任意长度的二进制值串映射为固定长度的二进制值串,这个映射的规则就是哈希算法,而通过原始数据映射之后得到的二进制值串就是哈希值。一个优秀的哈希算法有以下几点要求:
- 从哈希值不能反向推导出原始数据(所以哈希算法也叫单向哈希算法);
- 对输入数据非常敏感,哪怕原始数据只修改了一个 Bit,最后得到的哈希值也大不相同;
- 散列冲突的概率要很小,对于不同的原始数据,哈希值相同的概率非常小;
- 哈希算法的执行效率要尽量高效,针对较长的文本,也能快速地计算出哈希值。
我们来直接看图,左侧的key就是数据,要放进右侧的table中,那么,数据怎么放我们以后才能方便的找到它呢,这里就用到了哈希算法。
比如班上搞活动要分组,假设要分7个组,班上同学35名,学号分别是1~35,一种很简单的分组方法就是学号%组数,例如,学号为10的同学分到第10%7=3组,这就是一种简单的哈希算法。
看起来很简单的东西,我们在大学的时候就已经学过了,以为自己知道了。我们先来看看几个应用。
应用一:安全加密
说到哈希算法的应用,最先想到的应该就是安全加密。最常用于加密的哈希算法是MD5(MD5:消息摘要算法)和SHA(安全散列算法)。除了这两个之外,当然还有很多其他加密算法,比如DES(数据加密标准)、AES(高级加密标准)。
前面讲到的哈希算法四点要求,对用于加密的哈希算法来说,有两点格外重要。第一点是很难根据哈希值反向推导出原始数据,防止原始数据泄露。第二点是散列冲突的概率要很小,以MD5 为例,哈希值是固定的 128 位二进制串,能表示的数据是有限的,最多能表示 2^128 个数据,而我们要哈希的数据是无穷的,如果我们对 2^128+1 个数据求哈希值,就必然会存在哈希值相同的情况。不过,2^128已经是一个非常非常大的数字了,冲突的概率极低。
如果我们拿到一个 MD5 哈希值,希望通过毫无规律的穷举的方法,找到跟这个 MD5 值相同的另一个数据,那耗费的时间应该是个天文数字。所以,即便哈希算法存在冲突,但是在有限的时间和资源下,哈希算法还是被很难破解的。
没有绝对安全的加密。越复杂、越难破解的加密算法,需要的计算时间也越长。比如 SHA-256 比 SHA-1 要更复杂、更安全,相应的计算时间就会比较长,加密货币中就用到了加密算法。
应用二:唯一标识
如果要在海量的图库中,搜索一张图是否存在,我们不能单纯地用图片的元信息(比如图片名称)来比对,因为有可能存在名称相同但图片内容不同,或者名称不同图片内容相同的情况。那我们该如何搜索呢?)一张张比对么,一张图片小几KB,大的有几MB,这工作量就太大了。
我们可以给每一个图片取一个唯一标识,或者说信息摘要。比如,我们可以从图片的二进制码串开头取 100 个字节,从中间取 100 个字节,从最后再取 100 个字节,然后将这 300 个字节放到一块,通过哈希算法(比如 MD5),得到一个哈希字符串,用它作为图片的唯一标识。通过这个唯一标识来判定图片是否在图库中,这样就可以减少很多工作量。
应用三:数据校验
电驴这样的 BT 下载软件你肯定用过吧?具体的 BT 协议很复杂,校验方法也有很多,我来说其中的一种思路。
我们通过哈希算法,对 100 个文件块分别取哈希值,并且保存在种子文件中。我们在前面讲过,哈希算法有一个特点,对数据很敏感。只要文件块的内容有一丁点儿的改变,最后计算出的哈希值就会完全不同。所以,当文件块下载完成之后,我们可以通过相同的哈希算法,对下载好的文件块逐一求哈希值,然后跟种子文件中保存的哈希值比对。如果不同,说明这个文件块不完整或者被篡改了,需要再重新从其他宿主机器上下载这个文件块。
应用四:散列函数
相对哈希算法的其他应用,散列函数对于散列算法冲突的要求要低很多。即便出现个别散列冲突,只要不是过于严重,我们都可以通过开放寻址法或者链表法解决(计算机专业知识,读者不必要去了解)。
不仅如此,散列函数对于散列算法计算得到的值,是否能反向解密也并不关心。散列函数中用到的散列算法,更加关注散列后的值是否能平均分布,也就是,一组数据是否能均匀地散列在各个槽中。除此之外,散列函数执行的快慢,也会影响散列表的性能,所以,散列函数用的散列算法一般都比较简单,比较追求效率。
这个应用前面看不懂没关系,我们开头举的分组的例子就是一种简单的散列算法。
应用五:负载均衡
我们知道,负载均衡算法有很多,比如轮询、随机、加权轮询等。那如何才能实现一个会话粘滞(session sticky)的负载均衡算法呢?也就是说,我们需要在同一个客户端上,在一次会话中的所有请求都路由到同一个服务器上。
应用六:数据分片
哈希算法还可以用于数据的分片,比如,如何统计“搜索关键词”出现的次数?假如我们有 1T 的日志文件,这里面记录了用户的搜索关键词,我们想要快速统计出每个关键词被搜索的次数,该怎么做呢?
这个问题有两个难点,第一个是搜索日志很大,没办法放到一台机器的内存中。第二个难点是,如果只用一台机器来处理这么巨大的数据,处理时间会很长。
针对这两个难点,我们可以先对数据进行分片,然后采用多台机器处理的方法,来提高处理速度。具体的思路是这样的:为了提高处理的速度,我们用 n 台机器并行处理。我们从搜索记录的日志文件中,依次读出每个搜索关键词,并且通过哈希函数计算哈希值,然后再跟 n 取模,最终得到的值,就是应该被分配到的机器编号。
这样,哈希值相同的搜索关键词就被分配到了同一个机器上。也就是说,同一个搜索关键词会被分配到同一个机器上。每个机器会分别计算关键词出现的次数,最后合并起来就是最终的结果。
实际上,这里的处理过程也是 MapReduce(大数据处理中的一种常用方法) 的基本设计思想。
应用七:分布式存储
现在互联网面对的都是海量的数据、海量的用户。我们为了提高数据的读取、写入能力,一般都采用分布式的方式来存储数据,比如分布式缓存。我们有海量的数据需要缓存,所以一个缓存机器肯定是不够的。于是,我们就需要将数据分布在多台机器上。
该如何决定将哪个数据放到哪个机器上呢?我们可以借用前面数据分片的思想,即通过哈希算法对数据取哈希值,然后对机器个数取模,这个最终值就是应该存储的缓存机器编号。但是,如果数据增多,原来的 10 个机器已经无法承受了,我们就需要扩容了,比如扩到 11 个机器,这时候麻烦就来了。因为,这里并不是简单地加个机器就可以了。原来的数据是通过与 10 来取模的。比如 13 这个数据,存储在编号为 3 这台机器上。但是新加了一台机器中,我们对数据按照 11 取模,原来 13 这个数据就被分配到 2 号这台机器上了。
因此,所有的数据都要重新计算哈希值,然后重新搬移到正确的机器上。这样就相当于,缓存中的数据一下子就都失效了。所有的数据请求都会穿透缓存,直接去请求数据库。这样就可能发生雪崩效应,压垮数据库。
所以,我们需要一种方法,使得在新加入一个机器后,并不需要做大量的数据搬移。这时候,一致性哈希算法就要登场了。
最后
如果你对计算机专业知识不了解,上面七个应用你看不懂也没什么关系,只需要知道这些应用看起来高大上,也是我们在做项目时常遇到的问题,看似简单的哈希算法,为我们提供了非常优美的解决方案。
就以大数据量的分布式存储来说,不同公司的处理方式会很不一样,比如顺丰就是根据全国各个仓的往年数据量的情况,将几个大仓的数据分到你不同的机器上,其余小数据量的仓就取模随机分配,这样做的风险很大,事实上有一年双十一,一向量不是很大的广州仓突然爆发,吓得我抖了抖,真要出问题,临时扩容根本来不及。
当我了解到一致性哈希算法的时候,为这种优雅的扩容方案赞叹不已。
哈希算法我大学的时候就已经学过,MD5平常简直不要听烂了好么?然而,以为自己知道了跟实际用起来差着十万八千里。像负载均衡这事,有很多种处理方法,哈希算法也只是其中的一种。我大学学的是计算机,说起理论知识我并不差,但在实际面对项目中,我的招数却少得可怜,于我而言,理论与实际场景应用有一道鸿沟,应该有不少人跟我有同样的遭遇吧。
我们需要仔仔细细打磨基础工具,像哈希算法,它有几个特性/要求,我们抓住这些特性,竟然可以有如此多的应用。关于数组,链表,栈,队列,堆,跳表,二叉树等等都有它最明显的特性,在面对实际问题时,把自己工具箱里的工具一一过下,看看哪个工具能解决这个问题,或者哪几个工具组合能解决这个问题,尽可能的选择其中更好的方案。
我们在做项目时,面对一个问题会有多种方案,没有哪种工具是万能的,数据量小时有数据量小时的处理方法,数据量大时又有另外的思路。我以排序为例,小数据量时,冒泡排序虽然耗时但也没影响,但大数据量时再用冒泡排序简直是找死,所以像一些语言的排序函数,都是组合了好几种排序方法,数据量在哪个级别用哪个方法,只是对于只用它来写业务代码的人也许并不关心,其实凝聚了不少智慧。
当年国民党以为拥有了美式装备就了不得了,殊不知美式装备真的发挥威力是要配合强有力的后勤系统的。
以为自己知道,与真的知道,鸿沟如此之大,再次感叹一下自己的无知。为什么人总说,知道了那么多道理却还是过不好一生?那也许是人们以为自己知道罢了,真的知道了的话我们就会去用。就像我们知道有某种工具的存在,却不知道怎么去用,不知道什么样的条件可以使用它,不知道怎么使用它能发挥出最大的效力,那真的只是听说过那个工具而已,不是我们口袋中的工具。
以上是关于哈希算法与其应用的主要内容,如果未能解决你的问题,请参考以下文章