精华内容
下载资源
问答
  • 分布式系统的数据分布在多个节点中,常用的数据分布方式有哈希分布和顺序分布。 哈希分布 哈希分布就是将数据计算哈希值之后,按照哈希值分配到不同的节点上。例如有 N 个节点,数据的主键为 key,则将该数据分配的...

    分布式系统的数据分布在多个节点中,常用的数据分布方式有哈希分布和顺序分布。

    哈希分布

    哈希分布就是将数据计算哈希值之后,按照哈希值分配到不同的节点上。例如有 N 个节点,数据的主键为 key,则将该数据分配的节点序号为:hash(key)%N。
    传统的哈希分布算法存在一个问题:当节点数量变化时,也就是 N 值变化,那么几乎所有的数据都需要重新分布,将导致大量的数据迁移。

    一致性哈希:减少数据迁移

    Distributed Hash Table(DHT):对于哈希空间 0~2^n ,将该哈希空间看成一个哈希环,将每个节点都配置到哈希环上。每个数据对象通过哈希取模得到哈希值之后,存放到哈希环中顺时针方向第一个大于等于该哈希值的节点上。

    一致性哈希的优点:在加入或者删除节点时只会影响到哈希环中相邻的节点
    例如:增加了机器c4,只针对c3和c4之间的数据进行迁移,即将o4数据迁移到c4中。
    在这里插入图片描述

    虚拟节点:解决增加机器时负载不均衡

    一致性哈希解决了数据迁移量大的问题,但只是减轻了插入节点顺时针开始遇到的第一个机器负担,对于其他的节点并未起到减轻负载的作用。

    解决办法:引入虚拟节点。将每台物理机器虚拟为一组虚拟机器,放置在hash环上。对于每一个数据对象,首先按照顺时针查找第一个虚拟节点,再通过虚拟节点找到对应的物理节点。

    例如:插入节点4时,对应的一组虚拟节点是C41,C42,C43,减轻了C31,C22,C11的负担,实现了负载均衡
    在这里插入图片描述

    顺序分布

    哈希分布式破坏了数据的有序性,顺序分布则不会。
    顺序分布的数据划分为多个连续的部分,按一定策略分布到不同节点上。
    在这里插入图片描述
    User 表的主键范围为 1 ~ 7000,使用顺序分布可以将其划分成多个子表,对应的主键范围为 1 ~ 1000,1001 ~ 2000,…,6001 ~ 7000。
    其中 Meta 表是为了支持更大的集群规模,它将原来的一层索引结分成两层,使用 Meta 表来维护 User 子表所在的节点,从而减轻 Root 节点的负担。

    展开全文
  • GP提供了多种分布策略:哈希分布、随机分布和复制表。其中,最常用的就是哈希分布。本篇文章我将向大家介绍GP的哈希分布。首先,我们先回顾一下上篇文章用于调试的那张表: 大家可以看到建表语句末尾有DISTRIBUTEDBY...
  • [转]哈希分布与一致性哈希算法简介

    千次阅读 2012-06-11 02:10:28
    哈希分布与一致性哈希算法简介 作者:liunx 来源:http://www.cnblogs.com/liunx/archive/2010/03/24/1693925.html  前言 在我们的日常web应用开发当中memcached可以算作是当今的标准开发配置了。相信...


    哈希分布与一致性哈希算法简介

    作者:liunx

    来源:http://www.cnblogs.com/liunx/archive/2010/03/24/1693925.html 

    前言
    在我们的日常web应用开发当中memcached可以算作是当今的标准开发配置了。相信memcache的基本原理大家也都了解过了,memcache虽然是分布式的应用服务,但分布的原则是由client端的api来决定的,api根据存储用的key以及已知的服务器列表,根据key的hash计算将指定的key存储到对应的服务器列表上。

    基本的原理以及分布
    在这里我们通常使用的方法是根据 key的hash值%服务器数取余数 的方法来决定当前这个key的内容发往哪一个服务器的。这里会涉及到一个hash算法的分布问题,哈希的原理用一句话解释就是两个集合间的映射关系函数,在我们通常的应用中基本上可以理解为 在集合A(任意字母数字等组合,此处为存储用的key)里的一条记录去查找集合B(如0-2^32)中的对应记录。(题外话:md5的碰撞或者说冲突其实就是发生在这里,也就是说多个A的记录映射到了同一个B的记录)

    实际应用
    显然在我们的应用中集合A的记录应该更均匀的分布在集合B的各个位置,这样才能尽量避免我们的数据被分布发送到单一的服务器上,在danga的memcached的原始版本(perl)中使用的是crc32的算法用java的实现写出来:
        private static int origCompatHashingAlg( String key ) {
            int hash    = 0;
            char[] cArr = key.toCharArray();

            for ( int i = 0; i < cArr.length; ++i ) {
                hash = (hash * 33) + cArr[i];
            }

            return hash;
        }
    这里还有另一个改进版本的算法:
        private static int newCompatHashingAlg( String key ) {
            CRC32 checksum = new CRC32();
            checksum.update( key.getBytes() );
            int crc = (int) checksum.getValue();

            return (crc >> 16) & 0x7fff;
        }

    分布率测试
    有人做过测试,随机选择的key在服务器数量为5的时候所有key在服务器群组上的分布概率是:
    origCompatHashingAlg:
    0 10%
    1 9%
    2 60%
    3 9%
    4 9%

    newCompatHashingAlg:
    0 19%
    1 19%
    2 20%
    3 20%
    4 20%

    显然使用旧的crc32算法会导致第三个memcached服务的负载更高,但使用新算法会让服务之间的负载更加均衡。
    其他常用的hash算法还有FNV-1a Hash,RS Hash,JS Hash,PJW Hash,ELF Hash,AP Hash等等。有兴趣的童鞋可以查看这里:

    http://www.partow.net/programming/hashfunctions/

    http://hi.baidu.com/algorithms/blog/item/79caabee879ece2a2cf53440.html

    小结
    至此我们了解到了在我们的应用当中要做到尽量让我们的映射更加均匀分布,可以使服务的负载更加合理均衡。

    新问题
    但到目前为止我们依然面对了这样一个问题:就是服务实例本身发生变动的时候,导致服务列表变动从而会照成大量的cache数据请求会miss,几乎大部分数据会需要迁移到另外的服务实例上。这样在大型服务在线时,瞬时对后端数据库/硬盘照成的压力很可能导致整个服务的crash。

    一致性哈希(Consistent Hashing)
    在此我们采用了一种新的方式来解决问题,处理服务器的选择不再仅仅依赖key的hash本身而是将服务实例(节点)的配置也进行hash运算。

    1. 首先求出每个服务节点的hash,并将其配置到一个0~2^32的圆环(continuum)区间上。
    2. 其次使用同样的方法求出你所需要存储的key的hash,也将其配置到这个圆环(continuum)上。
    3. 然后从数据映射到的位置开始顺时针查找,将数据保存到找到的第一个服务节点上。如果超过2^32仍然找不到服务节点,就会保存到第一个memcached服务节点上。

    整个数据的图例:


    当增加服务节点时:

    其他:只有在圆环上增加服务节点的位置为逆时针方向的第一个服务节点上的键会受到影响。

    小结
    一致性哈希算法最大程度的避免了key在服务节点列表上的重新分布,其他附带的改进就是有的一致性哈希算法还增加了虚拟服务节点的方法,也就是一个服务节点在环上有多个映射点,这样就能抑制分布不均匀,
    最大限度地减小服务节点增减时的缓存重新分布。

    应用
    在memcached的实际应用,虽然官方的版本并不支持Consistent Hashing,但是已经有了现实的Consistent Hashing实现以及虚节点的实现,第一个实现的是last.fm(国外流行的音乐平台)开发的libketama,
    其中调用的hash的部分的java版本的实现(基于md5):
        /**
         * Calculates the ketama hash value for a string
         * @param s
         * @return
         */
        public static Long md5HashingAlg(String key) {

            if(md5==null) {
                try {
                    md5 = MessageDigest.getInstance("MD5");
                } catch (NoSuchAlgorithmException e) {
                    log.error( "++++ no md5 algorythm found" );
                    throw new IllegalStateException( "++++ no md5 algorythm found");            
                }
            }

            md5.reset();
            md5.update(key.getBytes());
            byte[] bKey = md5.digest();
            long res = ((long)(bKey[3]&0xFF) << 24) | ((long)(bKey[2]&0xFF) << 16) | ((long)(bKey[1]&0xFF) << 8) | (long)(bKey[0]&0xFF);
            return res;
        }
    在一致性哈希的算法/策略环境中,按照测试来说时间和分布性都是综合来说比较让人满意的,参见:
    http://www.javaeye.com/topic/346682

    总结
    在我们的web开发应用中的分布式缓存系统里哈希算法承担着系统架构上的关键点。
    使用分布更合理的算法可以使得多个服务节点间的负载相对均衡,可以最大程度的避免资源的浪费以及服务器过载。
    使用一致性哈希算法,可以最大程度的降低服务硬件环境变化带来的数据迁移代价和风险。
    使用更合理的配置策略和算法可以使分布式缓存系统更加高效稳定的为我们整体的应用服务。

    展望
    一致性哈希的算法/策略来源于p2p网络,其实纵观p2p网络应用的场景,在许多地方与我们的应用有很多相似的地方,可以学习借鉴。
    参考文章:
    对等网络(P2P)中主流分布式哈希算法比较分析
    http://www.ppcn.net/n3443c38.aspx

    其他参考文章:
    http://www.taiwanren.com/blog/article.asp?id=840
    http://www.iwms.net/n923c43.aspx
    http://tech.idv2.com/2008/07/24/memcached-004/

    相关代码:
    last.fm的ketama代码
    http://static.last.fm/rj/ketama.tar.bz2

    php版的Consistent Hashing实现:Flexihash
    主页:
    http://paul.annesley.cc/articles/2008/04/flexihash-consistent-hashing-php
    google code上的代码主页:
    http://code.google.com/p/flexihash/
    现在已经移居到github上了:
    http://github.com/pda/flexihash/




    一致性 hash 算法( consistent hashing )

    作者:张亮

    来源:http://blog.csdn.net/sparkliang/article/details/5279393 


    consistent hashing 算法早在 1997 年就在论文 Consistent hashing and random trees 中被提出,目前在 cache 系统中应用越来越广泛;

    1 基本场景

    比如你有 N 个 cache 服务器(后面简称 cache ),那么如何将一个对象 object 映射到 N 个 cache 上呢,你很可能会采用类似下面的通用方法计算 object 的 hash 值,然后均匀的映射到到 N 个 cache ;

    hash(object)%N

    一切都运行正常,再考虑如下的两种情况;

    1 一个 cache 服务器 m down 掉了(在实际应用中必须要考虑这种情况),这样所有映射到 cache m 的对象都会失效,怎么办,需要把 cache m 从 cache 中移除,这时候 cache 是 N-1 台,映射公式变成了 hash(object)%(N-1) ;

    2 由于访问加重,需要添加 cache ,这时候 cache 是 N+1 台,映射公式变成了 hash(object)%(N+1) ;

    1 和 2 意味着什么?这意味着突然之间几乎所有的 cache 都失效了。对于服务器而言,这是一场灾难,洪水般的访问都会直接冲向后台服务器;

    再来考虑第三个问题,由于硬件能力越来越强,你可能想让后面添加的节点多做点活,显然上面的 hash 算法也做不到。

      有什么方法可以改变这个状况呢,这就是 consistent hashing...

    2 hash 算法和单调性

       Hash 算法的一个衡量指标是单调性( Monotonicity ),定义如下:

      单调性是指如果已经有一些内容通过哈希分派到了相应的缓冲中,又有新的缓冲加入到系统中。哈希的结果应能够保证原有已分配的内容可以被映射到新的缓冲中去,而不会被映射到旧的缓冲集合中的其他缓冲区。

    容易看到,上面的简单 hash 算法 hash(object)%N 难以满足单调性要求。

    3 consistent hashing 算法的原理

    consistent hashing 是一种 hash 算法,简单的说,在移除 / 添加一个 cache 时,它能够尽可能小的改变已存在 key 映射关系,尽可能的满足单调性的要求。

    下面就来按照 5 个步骤简单讲讲 consistent hashing 算法的基本原理。

    3.1 环形hash 空间

    考虑通常的 hash 算法都是将 value 映射到一个 32 为的 key 值,也即是 0~2^32-1 次方的数值空间;我们可以将这个空间想象成一个首( 0 )尾( 2^32-1 )相接的圆环,如下面图 1 所示的那样。

    circle space

    图 1 环形 hash 空间

    3.2 把对象映射到hash 空间

    接下来考虑 4 个对象 object1~object4 ,通过 hash 函数计算出的 hash 值 key 在环上的分布如图 2 所示。

    hash(object1) = key1;

    … …

    hash(object4) = key4;

    object

    图 2 4 个对象的 key 值分布

    3.3 把cache 映射到hash 空间

    Consistent hashing 的基本思想就是将对象和 cache 都映射到同一个 hash 数值空间中,并且使用相同的hash 算法。

    假设当前有 A,B 和 C 共 3 台 cache ,那么其映射结果将如图 3 所示,他们在 hash 空间中,以对应的 hash值排列。

    hash(cache A) = key A;

    … …

    hash(cache C) = key C;

    cache

    图 3 cache 和对象的 key 值分布

     

    说到这里,顺便提一下 cache 的 hash 计算,一般的方法可以使用 cache 机器的 IP 地址或者机器名作为hash 输入。

    3.4 把对象映射到cache

    现在 cache 和对象都已经通过同一个 hash 算法映射到 hash 数值空间中了,接下来要考虑的就是如何将对象映射到 cache 上面了。

    在这个环形空间中,如果沿着顺时针方向从对象的 key 值出发,直到遇见一个 cache ,那么就将该对象存储在这个 cache 上,因为对象和 cache 的 hash 值是固定的,因此这个 cache 必然是唯一和确定的。这样不就找到了对象和 cache 的映射方法了吗?!

    依然继续上面的例子(参见图 3 ),那么根据上面的方法,对象 object1 将被存储到 cache A 上; object2和 object3 对应到 cache C ; object4 对应到 cache B ;

    3.5 考察cache 的变动

    前面讲过,通过 hash 然后求余的方法带来的最大问题就在于不能满足单调性,当 cache 有所变动时,cache 会失效,进而对后台服务器造成巨大的冲击,现在就来分析分析 consistent hashing 算法。

    3.5.1 移除 cache

    考虑假设 cache B 挂掉了,根据上面讲到的映射方法,这时受影响的将仅是那些沿 cache B 逆时针遍历直到下一个 cache ( cache C )之间的对象,也即是本来映射到 cache B 上的那些对象。

    因此这里仅需要变动对象 object4 ,将其重新映射到 cache C 上即可;参见图 4 。

    remove

    图 4 Cache B 被移除后的 cache 映射

    3.5.2 添加 cache

    再考虑添加一台新的 cache D 的情况,假设在这个环形 hash 空间中, cache D 被映射在对象 object2 和object3 之间。这时受影响的将仅是那些沿 cache D 逆时针遍历直到下一个 cache ( cache B )之间的对象(它们是也本来映射到 cache C 上对象的一部分),将这些对象重新映射到 cache D 上即可。

     

    因此这里仅需要变动对象 object2 ,将其重新映射到 cache D 上;参见图 5 。

    add

    图 5 添加 cache D 后的映射关系

    4 虚拟节点

    考量 Hash 算法的另一个指标是平衡性 (Balance) ,定义如下:

    平衡性

      平衡性是指哈希的结果能够尽可能分布到所有的缓冲中去,这样可以使得所有的缓冲空间都得到利用。

    hash 算法并不是保证绝对的平衡,如果 cache 较少的话,对象并不能被均匀的映射到 cache 上,比如在上面的例子中,仅部署 cache A 和 cache C 的情况下,在 4 个对象中, cache A 仅存储了 object1 ,而 cache C 则存储了 object2 、 object3 和 object4 ;分布是很不均衡的。

    为了解决这种情况, consistent hashing 引入了“虚拟节点”的概念,它可以如下定义:

    “虚拟节点”( virtual node )是实际节点在 hash 空间的复制品( replica ),一实际个节点对应了若干个“虚拟节点”,这个对应个数也成为“复制个数”,“虚拟节点”在 hash 空间中以 hash 值排列。

    仍以仅部署 cache A 和 cache C 的情况为例,在图 4 中我们已经看到, cache 分布并不均匀。现在我们引入虚拟节点,并设置“复制个数”为 2 ,这就意味着一共会存在 4 个“虚拟节点”, cache A1, cache A2 代表了 cache A ; cache C1, cache C2 代表了 cache C ;假设一种比较理想的情况,参见图 6 。

    virtual nodes

    图 6 引入“虚拟节点”后的映射关系

     

    此时,对象到“虚拟节点”的映射关系为:

    objec1->cache A2 ; objec2->cache A1 ; objec3->cache C1 ; objec4->cache C2 ;

    因此对象 object1 和 object2 都被映射到了 cache A 上,而 object3 和 object4 映射到了 cache C 上;平衡性有了很大提高。

    引入“虚拟节点”后,映射关系就从 { 对象 -> 节点 } 转换到了 { 对象 -> 虚拟节点 } 。查询物体所在 cache时的映射关系如图 7 所示。

    map

    图 7 查询对象所在 cache

     

    “虚拟节点”的 hash 计算可以采用对应节点的 IP 地址加数字后缀的方式。例如假设 cache A 的 IP 地址为202.168.14.241 。

    引入“虚拟节点”前,计算 cache A 的 hash 值:

    Hash(“202.168.14.241”);

    引入“虚拟节点”后,计算“虚拟节”点 cache A1 和 cache A2 的 hash 值:

    Hash(“202.168.14.241#1”);  // cache A1

    Hash(“202.168.14.241#2”);  // cache A2

    5 小结

    Consistent hashing 的基本原理就是这些,具体的分布性等理论分析应该是很复杂的,不过一般也用不到。

    http://weblogs.java.net/blog/2007/11/27/consistent-hashing 上面有一个 java 版本的例子,可以参考。

    http://blog.csdn.net/mayongzhan/archive/2009/06/25/4298834.aspx 转载了一个 PHP 版的实现代码。

    http://www.codeproject.com/KB/recipes/lib-conhash.aspx C语言版本


     

    一些参考资料地址:

    http://portal.acm.org/citation.cfm?id=258660

    http://en.wikipedia.org/wiki/Consistent_hashing

    http://www.spiteful.com/2008/03/17/programmers-toolbox-part-3-consistent-hashing/

     http://weblogs.java.net/blog/2007/11/27/consistent-hashing

    http://tech.idv2.com/2008/07/24/memcached-004/

    http://blog.csdn.net/mayongzhan/archive/2009/06/25/4298834.aspx



    展开全文
  • 哈希分布与一致性哈希算法简介

    千次阅读 2012-01-03 15:38:12
    哈希分布与一致性哈希算法简介  一致性hash应用领域主要是分布式缓存(分布式memcache)以及分布式存储(amazon的dynamo存储)。  在大型web应用中,缓存算是一个标配,在大规模的缓存应用中,分布式缓存系统...

    哈希分布与一致性哈希算法简介

         一致性hash应用领域主要是分布式缓存(分布式memcache)以及分布式存储(amazon的dynamo存储)。

         在大型web应用中,缓存算是一个标配,在大规模的缓存应用中,分布式缓存系统应运而生。key-value如何均匀的分散到集群中?最常规的方式莫过于hash取模的方式。比如集群中可用机器数量为N,那么key值为K的的数据请求很简单的可以路由到hash(K) mod N对应的机器。这种结构较简单实用。但是在一些高速发展的web系统中,这样的解决方案仍有缺陷。随着系统访问压力的增长,缓存系统不得不通过增加机器节点的方式提高集群的响应速度和数据承载量。如果还是按照hash取模的方式,在增加机器节点的时,会存在大量的缓存不命中,缓存数据需要重新建立,甚至进行整体的缓存数据迁移,会给DB带来极高的系统负载,甚至导致DB服务器宕机。 那么就没有办法解决hash取模的方式带来的诟病吗?看下文。

    (一) 一致性哈希基本原理(Consistent Hashing)
     选择具体的机器节点不在只依赖需要缓存数据的key的hash本身了,而是机器节点本身也进行了hash运算。
    (1) hash机器节点
        首先求出机器节点的hash值(怎么算机器节点的hash?ip可以作为hash的参数,当然还有其他的方法),然后将其分布到0~2^32的一个圆环上(顺时针分布)。如下图所示:

    x轴表示的是需要为每台物理服务器扩展的虚拟节点倍数(scale),y轴是实际物理服务器数,可以看出,当物理服务器的数量很小时,需要更大的虚拟节点,反之则需要更少的节点,从图上可以看出,在物理服务器有10台时,差不多需要为每台服务器增加100~200个虚拟节点才能达到真正的负载均衡。

     

    (2)访问方式 
        如果有一个写入缓存的请求,其中Key值为K,计算器hash值Hash(K), Hash(K) 对应于图 – 1环中的某一个点,如果该点对应没有映射到具体的某一个机器节点,那么顺时针查找,直到第一次找到有映射机器的节点,该节点就是确定的目标节点,如果超过了2^32仍然找不到节点,则命中第一个机器节点。比如 Hash(K) 的值介于node2~node2之间,那么命中的机器节点应该是node节点(如上图 )。

    (3)增加节点的处理 
        在原有集群的基础上欲增加一台机器node5,增加过程如下: 计算机器节点的Hash值,将机器映射到环中的一个节点,如下图:

        (一):如果用在缓存领域,增加机器节点node5之后,访问策略不改变,依然按照(2)中的方式访问,此时缓存命不中的情况依然不可避免,不能命中的数据是hash(K)在增加节点以前落在node2~node5之间的数据。尽管依然存在节点增加带来的命中问题,但是比较传统的 hash取模的方式,一致性hash已经将不命中的数据降到了最低。

        (二):在实际的像dynamo这样的实际存储系统中,加入节点成功的标准应该是把 node2和node5之间之前存储在node4中的数据迁移到新加入的node5中才算成功。

    (二)负载均衡+虚拟节点

        Consistent Hashing最大限度地抑制了hash键的重新分布。另外要取得比较好的负载均衡的效果,往往在服务器数量比较少的时候需要增加虚拟节点来保证服务器能均匀的分布在圆环上。因为使用一般的hash方法,服务器的映射地点的分布非常不均匀。使用虚拟节点的思想,为每个物理节点(服务器)在圆上分配100~200个点。这样就能抑制分布不均匀,最大限度地减小服务器增减时的缓存重新分布。用户数据映射在虚拟节点上,就表示用户数据真正存储位置是在该虚拟节点代表的实际物理服务器上。
    下面有一个图描述了需要为每台物理服务器增加的虚拟节点。

        x轴表示的是需要为每台物理服务器扩展的虚拟节点倍数(scale),y轴是实际物理服务器数,可以看出,当物理服务器的数量很小时,需要更多的虚拟节点,反之则需要更少的节点,从图上可以看出,在物理服务器有10台时,差不多需要为每台服务器增加100~200个虚拟节点才能达到较好的负载均衡。 

     

    (二)参考资料

    以下为一些分布式缓存的资料。

          《memcached 全面剖析》:

    ponit:

    • 类似内核高速缓存slab机制的内存管理
    • 一致性hash
    • rddtools 图形化监控与管理
    • 可插拔的存储引擎
                  slab内存 /  bdb  等

          memcache的适用性    http://blog.developers.api.sina.com.cn/?p=124 :

         《dynamo》:http://www.allthingsdistributed.com/files/amazon-dynamo-sosp2007.pdf

         《Scaling Parallel I/O Performance through I/O Delegate and Caching System》:http://dl.acm.org/ft_gateway.cfm?id=1413380&type=pdf&CFID=76343966&CFTOKEN=54995877

     

     

     

    展开全文
  • 普通 Hash 分布算法的 PHP 实现 首先假设有 2 台服务器:127.0.0.1:11211 和 192.168.186.129:11211 当存储的 key 经过对 2 (2 台服务器)取模运算得出该 key 应该保存到的服务器: <?php $server = ...

    普通 Hash 分布算法的 PHP 实现

    首先假设有 2 台服务器:127.0.0.1:11211 和 192.168.186.129:11211

    当存储的 key 经过对 2 (2 台服务器)取模运算得出该 key 应该保存到的服务器:

    <?php
    $server = array(
        array('host' => '127.0.0.1', 'port' => 11211),
        array('host' => '192.168.186.129', 'port' => 11211),
    );
    
    $key = 'TheKey';
    $value = 'TheValue';
    
    //假设是两台服务器
    $sc = $server[crc32($key) % 2];
    var_dump($sc);//得出该 key 应保存在第一台服务器上
    
    $mc = new Memcache();
    $mc->connect($sc['host'], $sc['port']);
    $mc->set($key, $value);

    var_dump($sc) 输出的结果是:

    array
      'host' => string '127.0.0.1' (length=9)
      'port' => int 11211

    此时使用 telnet 连接本机(127.0.0.1:11211)的 Memcached 服务器,get 该 key:

     

    再当 key 应该存储到第二台服务器上时:

    <?php
    $server = array(
        array('host' => '127.0.0.1', 'port' => 11211),
        array('host' => '192.168.186.129', 'port' => 11211),
    );
    
    $key = 'TheKey%';
    $value = 'TheValueSecond';
    
    //假设是两台服务器
    $sc = $server[crc32($key) % 2];
    var_dump($sc);//得出该 key 应保存在第二台服务器上
    
    $mc = new Memcache();
    $mc->connect($sc['host'], $sc['port']);
    $mc->set($key, $value);

    var_dump($sc) 输出的结果是:

    array
      'host' => string '192.168.186.129' (length=15)
      'port' => int 11211

    此时使用 telnet 连接虚拟机(192.168.186.129:11211)的 Memcached 服务器,get 该 key:

     

    普通 Hash 分布的缺点是:当服务器数量发生变化时,同一个 key 经过 Hash 之后,与服务器取模的结果跟没有增加或减少服务器之前的结果可能会不一样。例如:原来有 8 台服务器,宕掉 1 台之后,还剩 7 台,则 8 台服务器 $key % 8 = 0,$key % 7 = 0,此时为命中(hits);如果 $key % 8 = 0,%key % 7 = 1,则此时 miss。

     

    为了把丢失的数据减小到最少,可以使用 一致性哈希算法(Consistent Hashing)。

     

     

    一致性哈希算法

    step 1. 将一个 32 位的整数(0~2^32 - 1)想象成一个环,0 作为圆环的头,2^32 - 1 作为圆环的尾。

     

    step 2. 通过 Hash 函数把 key 处理成整数:

    $key1 = crc32($key1);
    $key2 = crc32($key2);
    $key3 = crc32($key3);
    $key4 = crc32($key4);

     

    step 3. 把 Memcached 群映射到环上。使用 Hash 函数把服务器的 IP 地址处理成整数:

    $server1 = crc32('127.0.0.1');
    $server2 = crc32('192.168.186.129');
    $server3 = crc32('192.168.186.130');

     

    通过以上步骤,把 key 和 服务器都映射到环上。

    step 4. 把数据映射到服务器上。

    如图,key1 落在了 server 3 上,key 4 和 key 3 落在了 server 2 上,key 2 落在了 server 1 上。

     

    step 5. 移除服务器

    当 server 2 宕机了,受到影响的仅仅是圆环上 server 3 和 server 2 之间的数据(key 3 和 key 4),即映射到 server 2 的数据。

     

    step 6. 添加服务器

    如果要增加 server 4,通过映射,它将出现在 key 3 和 key 4 之间,则此时受到影响的将是 server 3 和 server 4 之间的数据(key 4)。把 key 4 重新映射到 server 4 上即可。

     

    转载于:https://www.cnblogs.com/dee0912/p/4815052.html

    展开全文
  • ②封装 Memcached 类 hash.class.php,包含普通哈希算法(取模)和一致性哈希算法 ③ 初始化 Memcached 节点信息init.php ④ 减少 Memcached 节点 down.php ⑤ 统计命中率statistics.php ⑥ 使用 Highcharts...
  • http://www.iteye.com/topic/611976 http://www.iteye.com/topic/684087 Ketama一致性Hash算法(含Java代码) --nb http://blog.csdn.net/sparkliang/article/details/5279393 ...
  • Redis中哈希分布不均匀该怎么办

    千次阅读 多人点赞 2021-01-20 21:20:45
    Redis中哈希分布不均匀该怎么办 前言 哈希对象 hashtable 字典 rehash 操作 rehash 步骤 渐进式 rehash ziplist ziplist 和 hashtable 的编码转换 哈希对象常用命令 总结 前言 Redis 是一个键值对数据库,其键是通过...
  • 9-6 虚拟哈希分布

    2019-10-10 12:04:08
    redis cluster槽可以认为一个数字,有一定范围,比如0~16383redis cluster的范围。每个槽负责大数据的子集,假如有18个数据,有16384个槽,按照一定hash规则,在对16383取余,如果落到某一个槽范围内,证明槽管理的...
  • 二十七、哈希分布

    2018-08-20 12:19:48
    哈希分布 1、节点取余分区 2、一致性哈希 顺时针分配 扩容只影响相连两个节点 3、虚拟槽分区 槽可以理解成一个数据集,他是有一定范围的。根据哈希函数计算key在哪个槽范围内。 ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 1,448
精华内容 579
关键字:

哈希分布