博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
一致 Hash 算法分析
阅读量:6799 次
发布时间:2019-06-26

本文共 1030 字,大约阅读时间需要 3 分钟。

hot3.png

当我们在做数据库分库分表或者是分布式缓存时,不可避免的都会遇到一个问题:

如何将数据均匀的分散到各个节点中,并且尽量的在加减节点时能使受影响的数据最少。

Hash 取模

随机放置就不说了,会带来很多问题。通常最容易想到的方案就是 hash 取模了。

可以将传入的 Key 按照 index = hash(key) % N 这样来计算出需要存放的节点。其中 hash 函数是一个将字符串转换为正整数的哈希映射方法,N 就是节点的数量。

这样可以满足数据的均匀分配,但是这个算法的容错性和扩展性都较差。

比如增加或删除了一个节点时,所有的 Key 都需要重新计算,显然这样成本较高,为此需要一个算法满足分布均匀同时也要有良好的容错性和拓展性。

<!--more-->

一致 Hash 算法

一致 Hash 算法是将所有的哈希值构成了一个环,其范围在 0 ~ 2^32-1。如下图:

之后将各个节点散列到这个环上,可以用节点的 IP、hostname 这样的唯一性字段作为 Key 进行 hash(key),散列之后如下:

之后需要将数据定位到对应的节点上,使用同样的 hash 函数 将 Key 也映射到这个环上。

这样按照顺时针方向就可以把 k1 定位到 N1节点,k2 定位到 N3节点,k3 定位到 N2节点

容错性

这时假设 N1 宕机了:

依然根据顺时针方向,k2 和 k3 保持不变,只有 k1 被重新映射到了 N3。这样就很好的保证了容错性,当一个节点宕机时只会影响到少少部分的数据。

拓展性

当新增一个节点时:

在 N2 和 N3 之间新增了一个节点 N4 ,这时会发现受印象的数据只有 k3,其余数据也是保持不变,所以这样也很好的保证了拓展性。

虚拟节点

到目前为止该算法依然也有点问题:

当节点较少时会出现数据分布不均匀的情况:

这样会导致大部分数据都在 N1 节点,只有少量的数据在 N2 节点。

为了解决这个问题,一致哈希算法引入了虚拟节点。将每一个节点都进行多次 hash,生成多个节点放置在环上称为虚拟节点:

计算时可以在 IP 后加上编号来生成哈希值。

这样只需要在原有的基础上多一步由虚拟节点映射到实际节点的步骤即可让少量节点也能满足均匀性。

号外

最近在总结一些 Java 相关的知识点,感兴趣的朋友可以一起维护。

地址:

转载于:https://my.oschina.net/crossoverjie/blog/1603711

你可能感兴趣的文章
jdk及tomcat的配置
查看>>
【计算机视觉】OpenCV篇(2) - 图像基本操作(访问像素点/ROI/通道分离合并/图片属性)...
查看>>
Android介绍以及源码编译--编译Android源码
查看>>
要加强的地方
查看>>
数据挖掘
查看>>
【转】IOS缓存机制详解
查看>>
SQL基础教程读书笔记-3
查看>>
数据库优化的学习记录
查看>>
[C# 网络编程系列]专题十二:实现一个简单的FTP服务器
查看>>
软工个人作业4
查看>>
DOM节点树和元素树--深度遍历
查看>>
Nginx 安装及配置
查看>>
Latex
查看>>
我为什么要学习重构!
查看>>
纯吐槽,关于现在的一些混乱情况.
查看>>
CentOS 7最小安装后,手动连接网络
查看>>
选择排序
查看>>
卷积神经网络(基础知识回顾)-第七讲
查看>>
inno setup中文支持
查看>>
js内存泄漏的问题?
查看>>