其他分享
首页 > 其他分享> > 9张图,带你了解一致性哈希原理

9张图,带你了解一致性哈希原理

作者:互联网

假设我们现在做一个简单的文件缓存服务,由于文件数过多,我们先使用3台机器用来存储文件。

为了由文件名(假设文件名称不重复)能得到存储的机器,考虑先对文件名做hash运算,接着对3取余,得到的余数即为所在机器的编号。

这套系统运行了很久,后来文件数量慢慢增多,3台机器存不下了,现在我们考虑扩充到4台。

这个时候,我们的算法更新为hash(文件名)%5

那么使用该算法获取abc.txt文件所在的缓存机器时,在其hash值为10的时候,将会映射到0号机器上,而之前是存储在1号机器上的,这个时候就会重新将文件存储到0号机器上,或者将1号机器上的文件迁移到0号机器上。

因此,增加了两台机器后,导致了缓存失效。

我们使用代码来大致确定一下缓存失效的比例:

    public static void main(String[] args) {
        //缓存失效计数
        int count = 0;
        //假设一共有10000份文件
        for (int i = 0; i < 10000; i++) {
            //文件名称
            String fileName = "file#" + i;
            int hashCode = fileName.hashCode();
            //原来的存储位置
            int oldSite = hashCode % 3;
            //增加两台机器后,现在的存储位置
            int newSite = hashCode % 5;

            if (oldSite != newSite) {
                count++;
            }
        }

        System.out.println(count);
    }

 运行后发现,超过80%的缓存都会失效。

也就是说,无论是增加机器还是减少机器,都会使得缓存大面积的失效,这是我们不愿意见到的结果,那么有没有一种新的算法呢?

 一致性哈希算法,就应运而生了。该算法可以使得增减机器时,大幅度减少失效的缓存数量。

首先这里有个圆,你可以看做是从0到2^32-1头尾相连的环。

 我们先对一台机器的ip做哈希运算,再对2^32取模,即hash(ip)%2^32,得到了数字肯定在环上。

假设我们使用的哈希算法得到的哈希值返回值是int类型,则本身相当于已经取过模。

因此我们标记出三台机器在环上的位置

这个时候,需要将文件映射到环上,使用一样的哈希函数,即hash(文件名)。假设这里有4个文件,我们在环上标记出文件的位置。

那现在怎么确定文件在哪台机器上存储呢?

很简单,从当前文件开始,顺时针找到第一个机器,即为文件的存储位置。

假设这个时候机器2宕机,我们将机器2从环上移除,观察一下文件3的变化

 当机器2宕机时,文件3将重新指向机器3。

也就是说,当机器2宕机时,原本映射到机器1与机器2之间位置的文件,将会被重新映射到机器3。

因此,一致性哈希能够大幅度降低缓存失败的范围,不至于“牵一发而动全身”。

不知道大家有没有看出来,在上图中,几台机器在环上的分布比较均匀,这是一种非常理想的情况。

然而现实可能并不是这样,假设3台机器经过映射后,彼此之间非常靠近。

当机器数量特别少的时候,经过映射后,节点在环上分布不均匀,导致大部分文件全部落在同一台机器上,也就是存在数据倾斜问题。

如图所示,4个文件全部存储在了机器1上。倘若有一天,机器1承载不住大量的文件访问挂了,这些文件将会立即转移到机器2上。机器2同样也会承载不住,最后就会造成整个系统的连锁崩溃。

 既然问题的根本在于机器数量少,那我们可以增加机器啊!

但机器是一种实际存在的物理资源,不可能说增加就增加,老板也不让啊!

这个时候,我们可以复制现有的物理机器,形成一些虚拟节点,通过以物理节点的ip加上后缀序号来实现。

当虚拟节点以同样的算法映射到环上之后,文件1最终将会落到机器2上。

 理论上,虚拟节点越多,越能做到相对的均匀分布。

下面以代码的形式,来验证一下。

public class Main {

    //真实节点
    private static final String[] ipArray = new String[]{"192.168.1.1", "192.168.1.2", "192.168.1.3", "192.168.1.4"};
    //哈希环(哈希值->真实节点ip)
    private static final TreeMap<Long, String> circle = new TreeMap<>();

    //指定倍数初始化哈希环
    private static void initCircle(int mul) {
        //映射真实节点
        for (String ip : ipArray) {
            circle.put(hash(ip), ip);
            //按照倍数映射虚拟节点
            for (int i = 1; i <= mul; i++) {
                String virtual = ip + "#" + i;
                circle.put(hash(virtual), ip);
            }
        }
    }

    //获取指定文件存储的机器ip
    private static String getIpByFileName(String fileName) {
        long hash = hash(fileName);
        Long higherKey = circle.higherKey(hash);
        if (higherKey == null) {
            //返回哈希环中的第一个ip
            return circle.get(circle.firstKey());
        }
        //返回比文件名称的哈希值大的最小ip
        return circle.get(higherKey);
    }

    //统计落在每个节点上的文件总数(ip->文件总数)
    private static Map<String, Long> count(long fileCount) {
        //(ip,文件总数)
        Map<String, Long> map = new HashMap<>();

        for (long i = 1; i <= fileCount; i++) {
            String ip = getIpByFileName("file#" + i);
            Long ipCount = map.get(ip);
            map.put(ip, (ipCount == null ? 0 : ipCount) + 1);
        }

        return map;
    }

    //打印各个ip存储的文件数占总数的百分比
    private static void print(int fileCount) {
        Map<String, Long> map = count(fileCount);

        for (String ip : ipArray) {
            Long ipCountL = map.get(ip);
            long ipCount = ipCountL == null ? 0 : ipCountL;

            double result = ipCount * 100 / (double) fileCount;
            //保留一位小数
            String format = String.format("%.1f", result);
            System.out.println(ip + ":" + format + "%");
        }
    }

    // 32位的 Fowler-Noll-Vo 哈希算法
    // https://en.wikipedia.org/wiki/Fowler–Noll–Vo_hash_function
    private static Long hash(String key) {
        final int p = 16777619;
        long hash = 2166136261L;
        for (int idx = 0, num = key.length(); idx < num; ++idx) {
            hash = (hash ^ key.charAt(idx)) * p;
        }
        hash += hash << 13;
        hash ^= hash >> 7;
        hash += hash << 3;
        hash ^= hash >> 17;
        hash += hash << 5;

        if (hash < 0) {
            hash = Math.abs(hash);
        }
        return hash;
    }

    public static void main(String[] args) {
        //初始化哈希环
        initCircle(1000000);
        //文件总数10000个
        print(10000);
    }

}

 当倍数为0时:

192.168.1.1:0.0%
192.168.1.2:0.0%
192.168.1.3:100.0%
192.168.1.4:0.0%

相当于没有虚拟节点,可以看到极度不均匀,倾斜严重。 

当倍数为100时:

192.168.1.1:28.4%
192.168.1.2:22.4%
192.168.1.3:34.6%
192.168.1.4:14.6%

倾斜改善了!但仍然不满足

当倍数为10000时:

192.168.1.1:24.6%
192.168.1.2:25.9%
192.168.1.3:23.3%
192.168.1.4:26.3%

基本上算是比较均匀了

大胆点,我们把倍数调到1百万,文件数也调到1百万

192.168.1.1:25.0%
192.168.1.2:24.9%
192.168.1.3:25.0%
192.168.1.4:25.1%

可见所有文件在各个机器上分布得非常均匀!

标签:文件,机器,ip,192.168,哈希,一致性,hash,张图
来源: https://blog.csdn.net/qq_33591903/article/details/120855403