java- 分布式- 一致性哈希算法(2)

简介: 一致性哈希用在负载均衡的实例来说,一致性哈希就是先把主机ip从小大到全部放到一个环内,然后客户端ip来连接的时候,把客户端ip连接到大小最接近客户端ip且大于客户端ip的主机。

一致性哈希用在负载均衡的实例来说,一致性哈希就是先把主机ip从小大到全部放到一个环内,然后客户端ip来连接的时候,把客户端ip连接到大小最接近客户端ip且大于客户端ip的主机。当然,这里的ip一般都是要先hash一下的。

[java]  view plain  copy
 print ?
  1. 添加客户端,一开始有4个主机,分别为s1,s2,s3,s4,每个主机有100个虚拟主机:  
  2. 101客户端(hash:-3872430075274208315)连接到主机->s2-192.168.1.2  
  3. 102客户端(hash:-6461488502093916753)连接到主机->s1-192.168.1.1  
  4. 103客户端(hash:-3272337528088901176)连接到主机->s3-192.168.1.3  
  5. 104客户端(hash:7274050343425899995)连接到主机->s2-192.168.1.2  
  6. 105客户端(hash:6218187750346216421)连接到主机->s1-192.168.1.1  
  7. 106客户端(hash:-8497989778066313989)连接到主机->s2-192.168.1.2  
  8. 107客户端(hash:2219601794372203979)连接到主机->s3-192.168.1.3  
  9. 108客户端(hash:1903054837754071260)连接到主机->s3-192.168.1.3  
  10. 109客户端(hash:-2425484502654523425)连接到主机->s1-192.168.1.1  
  11. 删除主机s2-192.168.1.2的变化:  
  12. hash(-8497989778066313989)改变到->s4-192.168.1.4  
  13. hash(7274050343425899995)改变到->s2-192.168.1.2  
  14. hash(-3872430075274208315)改变到->s4-192.168.1.4  
  15. hash(7274050343425899995)改变到->s1-192.168.1.1  
  16. 增加主机s5-192.168.1.5的变化:  
  17. hash(1903054837754071260)改变到->s5-192.168.1.5  
  18. hash(1903054837754071260)改变到->s5-192.168.1.5  
  19. hash(-3272337528088901176)改变到->s5-192.168.1.5  
  20. 最后的客户端到主机的映射为:  
  21. hash(-8497989778066313989)连接到主机->s4-192.168.1.4  
  22. hash(-6461488502093916753)连接到主机->s1-192.168.1.1  
  23. hash(-3872430075274208315)连接到主机->s4-192.168.1.4  
  24. hash(-3272337528088901176)连接到主机->s5-192.168.1.5  
  25. hash(-2425484502654523425)连接到主机->s1-192.168.1.1  
  26. hash(1903054837754071260)连接到主机->s5-192.168.1.5  
  27. hash(2219601794372203979)连接到主机->s3-192.168.1.3  
  28. hash(6218187750346216421)连接到主机->s1-192.168.1.1  
  29. hash(7274050343425899995)连接到主机->s1-192.168.1.1  

看结果可知:一开始添加到9个客户端,连接到主机s1,s2,s3,s4的客户端分别有3,3,3,0个,经过删除主机s2,添加主机s5,最后9个客户端分别连接到主机s1,s2,s3,s4,s5的个数为4,0,1,2,2.这里要说明一下删除主机s2的情况,hash尾号为9995的客户端先连接到s2,再连接到s1,为什么会出现这种情况呢?因为每一个真实主机有n个虚拟主机,删除s2却打印“hash(7274050343425899995)改变到->s2-192.168.1.2”是因为删除了s2的其中一个虚拟主机,跳转到另一个虚拟主机,但还是在s2上,当然,这里是打印中间情况,以便了解,真实的环境是删除了s2后,所有他的虚拟节点都会马上被删除,虚拟节点上的连接也会重新连接到另一个主机的虚拟节点,不会存在这种中间情况。

以下给出所有的实现代码,大家共同学习:

[java]  view plain  copy
 print ?
  1. public class Shard<Node> { // S类封装了机器节点的信息 ,如name、password、ip、port等  
  2.   
  3.     static private TreeMap<Long, Node> nodes; // 虚拟节点到真实节点的映射  
  4.     static private TreeMap<Long,Node> treeKey; //key到真实节点的映射  
  5.     static private List<Node> shards = new ArrayList<Node>(); // 真实机器节点  
  6.     private final int NODE_NUM = 100// 每个机器节点关联的虚拟节点个数  
  7.     boolean flag = false;  
  8.       
  9.     public Shard(List<Node> shards) {  
  10.         super();  
  11.         this.shards = shards;  
  12.         init();  
  13.     }  
  14.   
  15.     public static void main(String[] args) {  
  16. //      System.out.println(hash("w222o1d"));  
  17. //      System.out.println(Long.MIN_VALUE);  
  18. //      System.out.println(Long.MAX_VALUE);  
  19.         Node s1 = new Node("s1""192.168.1.1");  
  20.         Node s2 = new Node("s2""192.168.1.2");  
  21.         Node s3 = new Node("s3""192.168.1.3");  
  22.         Node s4 = new Node("s4""192.168.1.4");  
  23.         Node s5 = new Node("s5","192.168.1.5");  
  24.         shards.add(s1);  
  25.         shards.add(s2);  
  26.         shards.add(s3);  
  27.         shards.add(s4);  
  28.         Shard<Node> sh = new Shard<Shard.Node>(shards);  
  29.         System.out.println("添加客户端,一开始有4个主机,分别为s1,s2,s3,s4,每个主机有100个虚拟主机:");  
  30.         sh.keyToNode("101客户端");  
  31.         sh.keyToNode("102客户端");  
  32.         sh.keyToNode("103客户端");  
  33.         sh.keyToNode("104客户端");  
  34.         sh.keyToNode("105客户端");  
  35.         sh.keyToNode("106客户端");  
  36.         sh.keyToNode("107客户端");  
  37.         sh.keyToNode("108客户端");  
  38.         sh.keyToNode("109客户端");  
  39.           
  40.         sh.deleteS(s2);  
  41.           
  42.           
  43.         sh.addS(s5);  
  44.           
  45.         System.out.println("最后的客户端到主机的映射为:");  
  46.         printKeyTree();  
  47.     }  
  48.     public static void printKeyTree(){  
  49.         for(Iterator<Long> it = treeKey.keySet().iterator();it.hasNext();){  
  50.             Long lo = it.next();  
  51.             System.out.println("hash("+lo+")连接到主机->"+treeKey.get(lo));  
  52.         }  
  53.           
  54.     }  
  55.       
  56.     private void init() { // 初始化一致性hash环  
  57.         nodes = new TreeMap<Long, Node>();  
  58.         treeKey = new TreeMap<Long, Node>();  
  59.         for (int i = 0; i != shards.size(); ++i) { // 每个真实机器节点都需要关联虚拟节点  
  60.             final Node shardInfo = shards.get(i);  
  61.   
  62.             for (int n = 0; n < NODE_NUM; n++)  
  63.                 // 一个真实机器节点关联NODE_NUM个虚拟节点  
  64.                 nodes.put(hash("SHARD-" + shardInfo.name + "-NODE-" + n), shardInfo);  
  65.         }  
  66.     }  
  67.     //增加一个主机  
  68.     private void addS(Node s) {  
  69.         System.out.println("增加主机"+s+"的变化:");  
  70.         for (int n = 0; n < NODE_NUM; n++)  
  71.             addS(hash("SHARD-" + s.name + "-NODE-" + n), s);  
  72.   
  73.     }  
  74.       
  75.     //添加一个虚拟节点进环形结构,lg为虚拟节点的hash值  
  76.     public void addS(Long lg,Node s){  
  77.         SortedMap<Long, Node> tail = nodes.tailMap(lg);  
  78.         SortedMap<Long,Node>  head = nodes.headMap(lg);  
  79.         Long begin = 0L;  
  80.         Long end = 0L;  
  81.         SortedMap<Long, Node> between;  
  82.         if(head.size()==0){  
  83.             between = treeKey.tailMap(nodes.lastKey());  
  84.             flag = true;  
  85.         }else{  
  86.             begin = head.lastKey();  
  87.             between = treeKey.subMap(begin, lg);  
  88.             flag = false;  
  89.         }  
  90.         nodes.put(lg, s);  
  91.         for(Iterator<Long> it=between.keySet().iterator();it.hasNext();){  
  92.             Long lo = it.next();  
  93.             if(flag){  
  94.                 treeKey.put(lo, nodes.get(lg));  
  95.                 System.out.println("hash("+lo+")改变到->"+tail.get(tail.firstKey()));  
  96.             }else{  
  97.                 treeKey.put(lo, nodes.get(lg));  
  98.                 System.out.println("hash("+lo+")改变到->"+tail.get(tail.firstKey()));  
  99.             }  
  100.         }  
  101.     }  
  102.       
  103.     //删除真实节点是s  
  104.     public void deleteS(Node s){  
  105.         if(s==null){  
  106.             return;  
  107.         }  
  108.         System.out.println("删除主机"+s+"的变化:");      
  109.         for(int i=0;i<NODE_NUM;i++){  
  110.             //定位s节点的第i的虚拟节点的位置  
  111.             SortedMap<Long, Node> tail = nodes.tailMap(hash("SHARD-" + s.name + "-NODE-" + i));  
  112.             SortedMap<Long,Node>  head = nodes.headMap(hash("SHARD-" + s.name + "-NODE-" + i));  
  113.             Long begin = 0L;  
  114.             Long end = 0L;  
  115.               
  116.             SortedMap<Long, Node> between;  
  117.             if(head.size()==0){  
  118.                 between = treeKey.tailMap(nodes.lastKey());  
  119.                 end = tail.firstKey();  
  120.                 tail.remove(tail.firstKey());  
  121.                 nodes.remove(tail.firstKey());//从nodes中删除s节点的第i个虚拟节点  
  122.                 flag = true;  
  123.             }else{  
  124.                 begin = head.lastKey();  
  125.                 end = tail.firstKey();  
  126.                 tail.remove(tail.firstKey());  
  127.                 between = treeKey.subMap(begin, end);//在s节点的第i个虚拟节点的所有key的集合  
  128.                 flag = false;  
  129.             }  
  130.             for(Iterator<Long> it = between.keySet().iterator();it.hasNext();){  
  131.                 Long lo  = it.next();  
  132.                 if(flag){  
  133.                     treeKey.put(lo, tail.get(tail.firstKey()));  
  134.                     System.out.println("hash("+lo+")改变到->"+tail.get(tail.firstKey()));  
  135.                 }else{  
  136.                     treeKey.put(lo, tail.get(tail.firstKey()));  
  137.                     System.out.println("hash("+lo+")改变到->"+tail.get(tail.firstKey()));  
  138.                 }  
  139.             }  
  140.         }  
  141.           
  142.     }  
  143.   
  144.     //映射key到真实节点  
  145.     public void keyToNode(String key){  
  146.         SortedMap<Long, Node> tail = nodes.tailMap(hash(key)); // 沿环的顺时针找到一个虚拟节点  
  147.         if (tail.size() == 0) {  
  148.             return;  
  149.         }  
  150.         treeKey.put(hash(key), tail.get(tail.firstKey()));  
  151.         System.out.println(key+"(hash:"+hash(key)+")连接到主机->"+tail.get(tail.firstKey()));  
  152.     }  
  153.       
  154.     /** 
  155.      *  MurMurHash算法,是非加密HASH算法,性能很高, 
  156.      *  比传统的CRC32,MD5,SHA-1(这两个算法都是加密HASH算法,复杂度本身就很高,带来的性能上的损害也不可避免) 
  157.      *  等HASH算法要快很多,而且据说这个算法的碰撞率很低. 
  158.      *  http://murmurhash.googlepages.com/ 
  159.      */  
  160.     private static Long hash(String key) {  
  161.           
  162.         ByteBuffer buf = ByteBuffer.wrap(key.getBytes());  
  163.         int seed = 0x1234ABCD;  
  164.           
  165.         ByteOrder byteOrder = buf.order();  
  166.         buf.order(ByteOrder.LITTLE_ENDIAN);  
  167.   
  168.         long m = 0xc6a4a7935bd1e995L;  
  169.         int r = 47;  
  170.   
  171.         long h = seed ^ (buf.remaining() * m);  
  172.   
  173.         long k;  
  174.         while (buf.remaining() >= 8) {  
  175.             k = buf.getLong();  
  176.   
  177.             k *= m;  
  178.             k ^= k >>> r;  
  179.             k *= m;  
  180.   
  181.             h ^= k;  
  182.             h *= m;  
  183.         }  
  184.   
  185.         if (buf.remaining() > 0) {  
  186.             ByteBuffer finish = ByteBuffer.allocate(8).order(  
  187.                     ByteOrder.LITTLE_ENDIAN);  
  188.             // for big-endian version, do this first:  
  189.             // finish.position(8-buf.remaining());  
  190.             finish.put(buf).rewind();  
  191.             h ^= finish.getLong();  
  192.             h *= m;  
  193.         }  
  194.   
  195.         h ^= h >>> r;  
  196.         h *= m;  
  197.         h ^= h >>> r;  
  198.   
  199.         buf.order(byteOrder);  
  200.         return h;  
  201.     }  
  202.       
  203.     static class Node{  
  204.         String name;  
  205.         String ip;  
  206.         public Node(String name,String ip) {  
  207.             this.name = name;  
  208.             this.ip = ip;  
  209.         }  
  210.         @Override  
  211.         public String toString() {  
  212.             return this.name+"-"+this.ip;  
  213.         }  
  214.     }  
  215.   
  216. }  
目录
相关文章
|
18天前
|
Java 数据库
在Java中使用Seata框架实现分布式事务的详细步骤
通过以上步骤,利用 Seata 框架可以实现较为简单的分布式事务处理。在实际应用中,还需要根据具体业务需求进行更详细的配置和处理。同时,要注意处理各种异常情况,以确保分布式事务的正确执行。
|
18天前
|
消息中间件 Java Kafka
在Java中实现分布式事务的常用框架和方法
总之,选择合适的分布式事务框架和方法需要综合考虑业务需求、性能、复杂度等因素。不同的框架和方法都有其特点和适用场景,需要根据具体情况进行评估和选择。同时,随着技术的不断发展,分布式事务的解决方案也在不断更新和完善,以更好地满足业务的需求。你还可以进一步深入研究和了解这些框架和方法,以便在实际应用中更好地实现分布式事务管理。
|
2月前
|
存储 人工智能 算法
数据结构与算法细节篇之最短路径问题:Dijkstra和Floyd算法详细描述,java语言实现。
这篇文章详细介绍了Dijkstra和Floyd算法,这两种算法分别用于解决单源和多源最短路径问题,并且提供了Java语言的实现代码。
90 3
数据结构与算法细节篇之最短路径问题:Dijkstra和Floyd算法详细描述,java语言实现。
|
5天前
|
存储 算法 安全
分布式系统架构1:共识算法Paxos
本文介绍了分布式系统中实现数据一致性的重要算法——Paxos及其改进版Multi Paxos。Paxos算法由Leslie Lamport提出,旨在解决分布式环境下的共识问题,通过提案节点、决策节点和记录节点的协作,确保数据在多台机器间的一致性和可用性。Multi Paxos通过引入主节点选举机制,优化了基本Paxos的效率,减少了网络通信次数,提高了系统的性能和可靠性。文中还简要讨论了数据复制的安全性和一致性保障措施。
19 1
|
26天前
|
算法 关系型数据库 MySQL
分布式唯一ID生成:深入理解Snowflake算法在Go中的实现
在分布式系统中,确保每个节点生成的 ID 唯一且高效至关重要。Snowflake 算法由 Twitter 开发,通过 64 位 long 型数字生成全局唯一 ID,包括 1 位标识位、41 位时间戳、10 位机器 ID 和 12 位序列号。该算法具备全局唯一性、递增性、高可用性和高性能,适用于高并发场景,如电商促销时的大量订单生成。本文介绍了使用 Go 语言的 `bwmarrin/snowflake` 和 `sony/sonyflake` 库实现 Snowflake 算法的方法。
36 1
分布式唯一ID生成:深入理解Snowflake算法在Go中的实现
|
1月前
|
存储 NoSQL Java
Java调度任务如何使用分布式锁保证相同任务在一个周期里只执行一次?
【10月更文挑战第29天】Java调度任务如何使用分布式锁保证相同任务在一个周期里只执行一次?
78 1
|
2月前
|
缓存 NoSQL Java
大数据-50 Redis 分布式锁 乐观锁 Watch SETNX Lua Redisson分布式锁 Java实现分布式锁
大数据-50 Redis 分布式锁 乐观锁 Watch SETNX Lua Redisson分布式锁 Java实现分布式锁
67 3
大数据-50 Redis 分布式锁 乐观锁 Watch SETNX Lua Redisson分布式锁 Java实现分布式锁
|
1月前
|
存储 缓存 算法
分布式缓存有哪些常用的数据分片算法?
【10月更文挑战第25天】在实际应用中,需要根据具体的业务需求、数据特征以及系统的可扩展性要求等因素综合考虑,选择合适的数据分片算法,以实现分布式缓存的高效运行和数据的合理分布。
|
1月前
|
分布式计算 Java 开发工具
阿里云MaxCompute-XGBoost on Spark 极限梯度提升算法的分布式训练与模型持久化oss的实现与代码浅析
本文介绍了XGBoost在MaxCompute+OSS架构下模型持久化遇到的问题及其解决方案。首先简要介绍了XGBoost的特点和应用场景,随后详细描述了客户在将XGBoost on Spark任务从HDFS迁移到OSS时遇到的异常情况。通过分析异常堆栈和源代码,发现使用的`nativeBooster.saveModel`方法不支持OSS路径,而使用`write.overwrite().save`方法则能成功保存模型。最后提供了完整的Scala代码示例、Maven配置和提交命令,帮助用户顺利迁移模型存储路径。
|
2月前
|
算法
基于粒子群算法的分布式电源配电网重构优化matlab仿真
本研究利用粒子群算法(PSO)优化分布式电源配电网重构,通过Matlab仿真验证优化效果,对比重构前后的节点电压、网损、负荷均衡度、电压偏离及线路传输功率,并记录开关状态变化。PSO算法通过迭代更新粒子位置寻找最优解,旨在最小化网络损耗并提升供电可靠性。仿真结果显示优化后各项指标均有显著改善。