`
Ydoing
  • 浏览: 106018 次
  • 性别: Icon_minigender_1
  • 来自: 杭州
社区版块
存档分类
最新评论

memcache的一致性hash算法使用

 
阅读更多

一、概述

1、我们的memcache客户端(这里我看的spymemcache的源码),使用了一致性hash算法ketama进行数据存储节点的选择。与常规的hash算法思路不同,只是对我们要存储数据的key进行hash计算,分配到不同节点存储。一致性hash算法是对我们要存储数据的服务器进行hash计算,进而确认每个key的存储位置。

2、常规hash算法的应用以及其弊端

最常规的方式莫过于hash取模的方式。比如集群中可用机器适量为N,那么key值为K的的数据请求很简单的应该路由到hash(K) mod N对应的机器。的确,这种结构是简单的,也是实用的。但是在一些高速发展的web系统中,这样的解决方案仍有些缺陷。随着系统访问压力的增长,缓存系统不得不通过增加机器节点的方式提高集群的相应速度和数据承载量。增加机器意味着按照hash取模的方式,在增加机器节点的这一时刻,大量的缓存命不中,缓存数据需要重新建立,甚至是进行整体的缓存数据迁移,瞬间会给DB带来极高的系统负载,设置导致DB服务器宕机。

3、设计分布式cache系统时,一致性hash算法可以帮我们解决哪些问题?

分布式缓存设计核心点:在设计分布式cache系统的时候,我们需要让key的分布均衡,并且在增加cache server后,cache的迁移做到最少。

这里提到的一致性hash算法ketama的做法是:选择具体的机器节点不在只依赖需要缓存数据的key的hash本身了,而是机器节点本身也进行了hash运算。


二、一致性哈希算法情景描述(转载)

1、 hash机器节点


首先求出机器节点的hash值(怎么算机器节点的hash?ip可以作为hash的参数吧。。当然还有其他的方法了),然后将其分布到0~2^32的一个圆环上(顺时针分布)。如下图所示:

图一

集群中有机器:A , B, C, D, E五台机器,通过一定的hash算法我们将其分布到如上图所示的环上。


2、访问方式

如果有一个写入缓存的请求,其中Key值为K,计算器hash值Hash(K), Hash(K) 对应于图 – 1环中的某一个点,如果该点对应没有映射到具体的某一个机器节点,那么顺时针查找,直到第一次找到有映射机器的节点,该节点就是确定的目标节点,如果超过了2^32仍然找不到节点,则命中第一个机器节点。比如 Hash(K) 的值介于A~B之间,那么命中的机器节点应该是B节点(如上图 )。


3、增加节点的处理

如上图 – 1,在原有集群的基础上欲增加一台机器F,增加过程如下:

计算机器节点的Hash值,将机器映射到环中的一个节点,如下图:

图二

增加机器节点F之后,访问策略不改变,依然按照(2)中的方式访问,此时缓存命不中的情况依然不可避免,不能命中的数据是hash(K)在增加节点以前落在C~F之间的数据。尽管依然存在节点增加带来的命中问题,但是比较传统的 hash取模的方式,一致性hash已经将不命中的数据降到了最低。

Consistent Hashing最大限度地抑制了hash键的重新分布。另外要取得比较好的负载均衡的效果,往往在服务器数量比较少的时候需要增加虚拟节点来保证服务器能均匀的分布在圆环上。因为使用一般的hash方法,服务器的映射地点的分布非常不均匀。使用虚拟节点的思想,为每个物理节点(服务器)在圆上分配100~200个点。这样就能抑制分布不均匀,最大限度地减小服务器增减时的缓存重新分布。用户数据映射在虚拟节点上,就表示用户数据真正存储位置是在该虚拟节点代表的实际物理服务器上。
下面有一个图描述了需要为每台物理服务器增加的虚拟节点。


图三

x轴表示的是需要为每台物理服务器扩展的虚拟节点倍数(scale),y轴是实际物理服务器数,可以看出,当物理服务器的数量很小时,需要更大的虚拟节点,反之则需要更少的节点,从图上可以看出,在物理服务器有10台时,差不多需要为每台服务器增加100~200个虚拟节点才能达到真正的负载均衡。

三、以spymemcache源码来演示虚拟节点应用

1、上边描述的一致性Hash算法有个潜在的问题是:
(1)、将节点hash后会不均匀地分布在环上,这样大量key在寻找节点时,会存在key命中各个节点的概率差别较大,无法实现有效的负载均衡。
(2)、如有三个节点Node1,Node2,Node3,分布在环上时三个节点挨的很近,落在环上的key寻找节点时,大量key顺时针总是分配给Node2,而其它两个节点被找到的概率都会很小。

2、这种问题的解决方案可以有:
改善Hash算法,均匀分配各节点到环上;[引文]使用虚拟节点的思想,为每个物理节点(服务器)在圆上分配100~200个点。这样就能抑制分布不均匀,最大限度地减小服务器增减时的缓存重新分布。用户数据映射在虚拟节点上,就表示用户数据真正存储位置是在该虚拟节点代表的实际物理服务器上。

在查看Spy Memcached client时,发现它采用一种称为Ketama的Hash算法,以虚拟节点的思想,解决Memcached的分布式问题。

3、源码说明

该client采用TreeMap存储所有节点,模拟一个环形的逻辑关系。在这个环中,节点之前是存在顺序关系的,所以TreeMap的key必须实现Comparator接口。
那节点是怎样放入这个环中的呢?

  1. protectedvoidsetKetamaNodes(List<MemcachedNode>nodes){
  2. TreeMap<Long,MemcachedNode>newNodeMap=newTreeMap<Long,MemcachedNode>();
  3. intnumReps=config.getNodeRepetitions();
  4. for(MemcachedNodenode:nodes){
  5. //Ketamadoessomespecialworkwithmd5whereitreuseschunks.
  6. if(hashAlg==HashAlgorithm.KETAMA_HASH){
  7. for(inti=0;i<numReps/4;i++){
  8. byte[]digest=HashAlgorithm.computeMd5(config.getKeyForNode(node,i));
  9. for(inth=0;h<4;h++){
  10. Longk=((long)(digest[3+h*4]&0xFF)<<24)
  11. |((long)(digest[2+h*4]&0xFF)<<16)
  12. |((long)(digest[1+h*4]&0xFF)<<8)
  13. |(digest[h*4]&0xFF);
  14. newNodeMap.put(k,node);
  15. getLogger().debug("Addingnode%sinposition%d",node,k);
  16. }
  17. }
  18. }else{
  19. for(inti=0;i<numReps;i++){
  20. newNodeMap.put(hashAlg.hash(config.getKeyForNode(node,i)),node);
  21. }
  22. }
  23. }
  24. assertnewNodeMap.size()==numReps*nodes.size();
  25. ketamaNodes=newNodeMap;


上面的流程大概可以这样归纳:四个虚拟结点为一组,以getKeyForNode方法得到这组虚拟节点的name,Md5编码后,每个虚拟结点对应Md5码16个字节中的4个,组成一个long型数值,做为这个虚拟结点在环中的惟一key。第10行k为什么是Long型的呢?就是因为Long型实现了Comparator接口。

处理完正式结点在环上的分布后,可以开始key在环上寻找节点的游戏了。
对于每个key还是得完成上面的步骤:计算出Md5,根据Md5的字节数组,通过Kemata Hash算法得到key在这个环中的位置。

  1. MemcachedNodegetNodeForKey(longhash){
  2. finalMemcachedNoderv;
  3. if(!ketamaNodes.containsKey(hash)){
  4. //Java1.6addsaceilingKeymethod,butI'mstillstuckin1.5
  5. //inalotofplaces,soI'mdoingthismyself.
  6. SortedMap<Long,MemcachedNode>tailMap=getKetamaNodes().tailMap(hash);
  7. if(tailMap.isEmpty()){
  8. hash=getKetamaNodes().firstKey();
  9. }else{
  10. hash=tailMap.firstKey();
  11. }
  12. }
  13. rv=getKetamaNodes().get(hash);
  14. returnrv;
  15. }

上边代码的实现就是在环上顺时针查找,没找到就去的第一个,然后就知道对应的物理节点了。

四、应用场景分析

1、memcache的add方法:通过一致性hash算法确认当前客户端对应的cacheserver的hash值以及要存储数据key的hash进行对应,确认cacheserver,获取connection进行数据存储

2、memcache的get方法:通过一致性hash算法确认当前客户端对应的cacheserver的hash值以及要提取数据的hash值,进而确认存储的cacheserver,获取connection进行数据提取

五、总结

1、一致性hash算法只是帮我们减少cache集群中的机器数量增减的时候,cache的数据能进行最少重建。只要cache集群的server数量有变化,必然产生数据命中的问题

2、对于数据的分布均衡问题,通过虚拟节点的思想来达到均衡分配。当然,我们cache server节点越少就越需要虚拟节点这个方式来均衡负载。

3、我们的cache客户端根本不会维护一个map来记录每个key存储在哪里,都是通过key的hash和cacheserver(也许ip可以作为参数)的hash计算当前的key应该存储在哪个节点上。

4、当我们的cache节点崩溃了。我们必定丢失部分cache数据,并且要根据活着的cache server和key进行新的一致性匹配计算。有可能对部分没有丢失的数据也要做重建...

5、至于正常到达数据存储节点,如何找到key对应的数据,那就是cache server本身的内部算法实现了,此处不做描述。


这里只是针对数据的存储方式以及提取方式进行了流程展示。


分享到:
评论

相关推荐

    memcache分布式一致性hash

    分布式一致性哈希是一种解决在分布式缓存系统中如何高效、稳定地分配数据的算法,尤其在Memcache等缓存服务中广泛应用。它旨在确保当缓存集群中的节点增减时,对现有数据的映射影响最小,从而降低数据迁移和系统压力...

    memcache一致性hash的php实现方法

    一致性哈希(Consistent Hashing)是一种分布式存储系统中用于负载均衡和缓存分配的算法。它的主要目标是在节点加入或离开系统时,尽可能减少数据重新分布的影响。在传统的哈希算法中,当新增或移除一个服务器时,...

    memcache_php使用测试

    - **memcache.hash_strategy** 和 **memcache.hash_function**: 控制key到服务器的映射策略及哈希函数,通过设置不同的策略和函数,可以优化数据分布和负载均衡,比如标准哈希策略和CRC32算法通常用于提高一致性。...

    MemCache详细解读1

    为了解决这个问题,一致性Hash算法被引入。一致性Hash可以更好地处理服务器数量变化时的数据迁移,确保在添加或删除服务器时,只有一小部分数据需要重新分配,从而降低对缓存命中率的影响。 总的来说,MemCache是...

    Java开发中的Memcache原理及实现

    由于内存有限,Memcached使用LRU(Least Recently Used)算法来处理内存满时的数据淘汰。 - 序列化:非字符串类型的数据在存入Memcached前会被序列化为字符串,取回时再反序列化。 - 协议简单:Memcached使用基于...

    Flexihash(java版)

    Flexihash简化版,hash算法(java版),一致性hash的使用在PHP中有三种选择分别是原生的memcache扩展,memcached扩展,还有一个是网上比较流行的flexihash类。前两者都适用于memcache但不适合Redis

    memcache架构图

    每个节点根据预设的算法(如一致性哈希)负责一部分键值对的存储,当新的节点加入或节点下线时,数据分布能够相对平滑地调整,避免大规模的数据迁移。 2. **内存存储** 由于数据存储在内存中,Memcached具有极快的...

    php模块memcache和memcached区别分析

    - 对于memcache,可以在php.ini配置文件中设置`Memcache.hash_strategy`为`consistent`,以及`memcache.hash_function`为`crc32`,来启用一致性哈希。 - 对于memcached,可以通过`setOption()`方法设置`Memcached:...

    ist的matlab代码-hash_ring:在Python中实现一致的哈希(使用md5作为哈希函数)

    哈希环是使用与libketama相同的算法构建的。 一致性哈希是一种以提供或删除一个插槽不会显着改变键到插槽的映射的方式提供哈希表功能的方案。 可以在博客文章中阅读有关hash_ring的更多信息(该文章更详细地解释了该...

    PHP数据库操作二:memcache用法分析

    1. 一致性哈希:Memcache支持一致性哈希算法,可以在多台Memcache服务器间均匀分布数据,避免单点故障和扩展性问题。 2. 过期策略:Memcache允许设置数据项的过期时间,超过指定时间后数据会被自动清除。 3. 最大...

    【白雪红叶】JAVA学习技术栈梳理思维导图.xmind

    一致性hash 消峰 分库分表 锁 悲观锁 乐观锁 行级锁 分布式锁 分区排队 一致性 一致性算法 paxos zab nwr raft gossip 柔性事务(TCC) 一致性原理 CAP BASE 中间件 数据库 mysql 存储引擎 ...

    java大厂面试题.docx

    3. **一致性Hash算法的实现原理** 一致性哈希算法通过将哈希值映射到一个环形空间上,使得数据的分布相对均匀,即使在节点增减时,只有少数数据需要迁移。这样保证了系统的稳定性和效率。 4. **Memcached与Redis的...

    百度最新面经-Java 工程师

    * 缓存数据库 Memcache 的集群模式和一致性 Hash * Redis 的基本数据类型 网络模块 * 一个 URL 请求的过程 * HTTP 状态码的意义(502、406、302) * 三次握手和四次挥手 * Vi 编辑器的两种模式和跳转到最后一行 * ...

    神级memcached源代码分析文档_1.4.0代码分析

    客户端的哈希算法决定了key如何映射到特定的server,通常采用一致性哈希,以保证server增减时,数据迁移的影响最小化。 总结,通过深入分析Memcached的源代码,我们可以了解到其高效运行背后的设计思想和技术实现,...

    memcached集群linux搭建

    Memcached集群通常通过一致性哈希算法实现,其中每个节点存储一部分数据。在Linux上,可以使用`libketama`库来实现一致性哈希。安装libketama库: ```shell # Ubuntu/Debian sudo apt install libketama-dev # ...

    Memcached 内存分析、调优、集群

    Memcached分布式:一致性Hash 在分布式环境中,为了实现数据的高效分发,Memcached使用了一致性哈希算法。一致性哈希能够确保即使在网络中添加或删除节点时,数据迁移也尽可能少。 #### 5. Key-Value系统的比较 ...

Global site tag (gtag.js) - Google Analytics