CategoryResourceRepost/极客时间专栏/数据结构与算法之美/基础篇/22 | 哈希算法(下):哈希算法在分布式系统中有哪些应用?.md
louzefeng d3828a7aee mod
2024-07-11 05:50:32 +00:00

89 lines
8.9 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

<audio id="audio" title="22 | 哈希算法(下):哈希算法在分布式系统中有哪些应用?" controls="" preload="none"><source id="mp3" src="https://static001.geekbang.org/resource/audio/6e/43/6e35346a93b0e0ba3cdd9751994f5b43.mp3"></audio>
上一节,我讲了哈希算法的四个应用,它们分别是:安全加密、数据校验、唯一标识、散列函数。今天,我们再来看剩余三种应用:**负载均衡、数据分片、分布式存储**。
你可能已经发现,这三个应用都跟分布式系统有关。没错,今天我就带你看下,**哈希算法是如何解决这些分布式问题的**。
## 应用五:负载均衡
我们知道负载均衡算法有很多比如轮询、随机、加权轮询等。那如何才能实现一个会话粘滞session sticky的负载均衡算法呢也就是说我们需要在同一个客户端上在一次会话中的所有请求都路由到同一个服务器上。
最直接的方法就是维护一张映射关系表这张表的内容是客户端IP地址或者会话ID与服务器编号的映射关系。客户端发出的每次请求都要先在映射表中查找应该路由到的服务器编号然后再请求编号对应的服务器。这种方法简单直观但也有几个弊端
<li>
如果客户端很多,映射表可能会很大,比较浪费内存空间;
</li>
<li>
客户端下线、上线,服务器扩容、缩容都会导致映射失效,这样维护映射表的成本就会很大;
</li>
如果借助哈希算法,这些问题都可以非常完美地解决。**我们可以通过哈希算法对客户端IP地址或者会话ID计算哈希值将取得的哈希值与服务器列表的大小进行取模运算最终得到的值就是应该被路由到的服务器编号。** 这样我们就可以把同一个IP过来的所有请求都路由到同一个后端服务器上。
## 应用六:数据分片
哈希算法还可以用于数据的分片。我这里有两个例子。
### 1.如何统计“搜索关键词”出现的次数?
假如我们有1T的日志文件这里面记录了用户的搜索关键词我们想要快速统计出每个关键词被搜索的次数该怎么做呢
我们来分析一下。这个问题有两个难点,第一个是搜索日志很大,没办法放到一台机器的内存中。第二个难点是,如果只用一台机器来处理这么巨大的数据,处理时间会很长。
针对这两个难点,**我们可以先对数据进行分片,然后采用多台机器处理的方法,来提高处理速度**。具体的思路是这样的为了提高处理的速度我们用n台机器并行处理。我们从搜索记录的日志文件中依次读出每个搜索关键词并且通过哈希函数计算哈希值然后再跟n取模最终得到的值就是应该被分配到的机器编号。
这样,哈希值相同的搜索关键词就被分配到了同一个机器上。也就是说,同一个搜索关键词会被分配到同一个机器上。每个机器会分别计算关键词出现的次数,最后合并起来就是最终的结果。
实际上这里的处理过程也是MapReduce的基本设计思想。
### 2.如何快速判断图片是否在图库中?
如何快速判断图片是否在图库中?上一节我们讲过这个例子,不知道你还记得吗?当时我介绍了一种方法,即给每个图片取唯一标识(或者信息摘要),然后构建散列表。
假设现在我们的图库中有1亿张图片很显然在单台机器上构建散列表是行不通的。因为单台机器的内存有限而1亿张图片构建散列表显然远远超过了单台机器的内存上限。
我们同样可以对数据进行分片然后采用多机处理。我们准备n台机器让每台机器只维护某一部分图片对应的散列表。我们每次从图库中读取一个图片计算唯一标识然后与机器个数n求余取模得到的值就对应要分配的机器编号然后将这个图片的唯一标识和图片路径发往对应的机器构建散列表。
当我们要判断一个图片是否在图库中的时候我们通过同样的哈希算法计算这个图片的唯一标识然后与机器个数n求余取模。假设得到的值是k那就去编号k的机器构建的散列表中查找。
现在我们来估算一下给这1亿张图片构建散列表大约需要多少台机器。
散列表中每个数据单元包含两个信息哈希值和图片文件的路径。假设我们通过MD5来计算哈希值那长度就是128比特也就是16字节。文件路径长度的上限是256字节我们可以假设平均长度是128字节。如果我们用链表法来解决冲突那还需要存储指针指针只占用8字节。所以散列表中每个数据单元就占用152字节这里只是估算并不准确
假设一台机器的内存大小为2GB散列表的装载因子为0.75那一台机器可以给大约1000万2GB*0.75/152张图片构建散列表。所以如果要对1亿张图片构建索引需要大约十几台机器。在工程中这种估算还是很重要的能让我们事先对需要投入的资源、资金有个大概的了解能更好地评估解决方案的可行性。
实际上针对这种海量数据的处理问题我们都可以采用多机分布式处理。借助这种分片的思路可以突破单机内存、CPU等资源的限制。
## 应用七:分布式存储
现在互联网面对的都是海量的数据、海量的用户。我们为了提高数据的读取、写入能力,一般都采用分布式的方式来存储数据,比如分布式缓存。我们有海量的数据需要缓存,所以一个缓存机器肯定是不够的。于是,我们就需要将数据分布在多台机器上。
该如何决定将哪个数据放到哪个机器上呢?我们可以借用前面数据分片的思想,即通过哈希算法对数据取哈希值,然后对机器个数取模,这个最终值就是应该存储的缓存机器编号。
但是如果数据增多原来的10个机器已经无法承受了我们就需要扩容了比如扩到11个机器这时候麻烦就来了。因为这里并不是简单地加个机器就可以了。
原来的数据是通过与10来取模的。比如13这个数据存储在编号为3这台机器上。但是新加了一台机器中我们对数据按照11取模原来13这个数据就被分配到2号这台机器上了。
<img src="https://static001.geekbang.org/resource/image/13/7c/138b060ee522cd2eae83c0c31a16bc7c.jpg" alt="">
因此,所有的数据都要重新计算哈希值,然后重新搬移到正确的机器上。这样就相当于,缓存中的数据一下子就都失效了。所有的数据请求都会穿透缓存,直接去请求数据库。这样就可能发生[雪崩效应](https://zh.wikipedia.org/wiki/%E9%9B%AA%E5%B4%A9%E6%95%88%E5%BA%94),压垮数据库。
所以,我们需要一种方法,使得在新加入一个机器后,并不需要做大量的数据搬移。这时候,**一致性哈希算法**就要登场了。
假设我们有k个机器数据的哈希值的范围是[0, MAX]。我们将整个范围划分成m个小区间m远大于k每个机器负责m/k个小区间。当有新机器加入的时候我们就将某几个小区间的数据从原来的机器中搬移到新的机器中。这样既不用全部重新哈希、搬移数据也保持了各个机器上数据数量的均衡。
一致性哈希算法的基本思想就是这么简单。除此之外,它还会借助一个虚拟的环和虚拟结点,更加优美地实现出来。这里我就不展开讲了,如果感兴趣,你可以看下这个[介绍](https://en.wikipedia.org/wiki/Consistent_hashing)。
除了我们上面讲到的分布式缓存,实际上,一致性哈希算法的应用非常广泛,在很多分布式存储系统中,都可以见到一致性哈希算法的影子。
## 解答开篇&amp;内容小结
这两节的内容理论不多,比较贴近具体的开发。今天我讲了三种哈希算法在分布式系统中的应用,它们分别是:负载均衡、数据分片、分布式存储。
在负载均衡应用中,利用哈希算法替代映射表,可以实现一个会话粘滞的负载均衡策略。在数据分片应用中,通过哈希算法对处理的海量数据进行分片,多机分布式处理,可以突破单机资源的限制。在分布式存储应用中,利用一致性哈希算法,可以解决缓存等分布式系统的扩容、缩容导致数据大量搬移的难题。
## 课后思考
这两节我总共讲了七个哈希算法的应用。实际上我讲的也只是冰山一角哈希算法还有很多其他的应用比如网络协议中的CRC校验、Git commit id等等。除了这些你还能想到其他用到哈希算法的地方吗
欢迎留言和我分享,我会第一时间给你反馈。