HashMap源码解析

本文涉及的产品
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介: HashMap源码解析

85aed311abfc57da6e2494b37d4ac194.jpg

概述


HashMap是基于hash表的Map接口实现,允许null key、null value


fd1cdc42cab222585270266ea8a5d09f.png


2. 成员变量


  /**
     * [1] 默认初始容量,16(必须是2的幂)
     * The default initial capacity - MUST be a power of two.
     */
    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
    /**
     * 最大容量
     */
    static final int MAXIMUM_CAPACITY = 1 << 30;
    /**
     * 默认的负载因子
     * The load factor used when none specified in constructor.
     */
    static final float DEFAULT_LOAD_FACTOR = 0.75f;
    /**
     * 链表转红黑树的阈值
     */
    static final int TREEIFY_THRESHOLD = 8;
    /**
     * [2] 红黑树转列表的阈值
     */
    static final int UNTREEIFY_THRESHOLD = 6;
    /**
     * 最小树形化阈值
     * 当HashMap中的table的长度大于64的时候,这时候才会允许桶内的链表转成红黑树(要求桶内的链表长度达到8)
     * 如果只是桶内的链表过长,而table的长度小于64的时候
     * 此时应该是执行resize方法,将table进行扩容,而不是链表转红黑树
     * 最小树形化阈值至少应为链表转红黑树阈值的四倍
     */
    static final int MIN_TREEIFY_CAPACITY = 64;
    /**
     * 存放具体元素的集
     * Holds cached entrySet(). Note that AbstractMap fields are used
     * for keySet() and values().
     */
    transient Set<Map.Entry<K,V>> entrySet;
    /**
     * HashMap的负载因子
     * 负载因子控制这HashMap中table数组的存放数据的疏密程度
     * 负载因子越接近1,那么存放的数据越密集,导致查找元素效率低下
     * 负载因子约接近0,那么存放的数据越稀疏,导致数组空间利用率低下
     * The load factor for the hash table.
     *
     * @serial
     */
    final float loadFactor;
    /**
     * 修改次数
     */
    transient int modCount;
    /**
     * 键值对的个数
     * The number of key-value mappings contained in this map.
     */
    transient int size;
    /**
     * 存储元素的数组
     */
    transient Node<K,V>[] table;
    /**
     * 当{@link HashMap#size} >= {@link HashMap#threshold}的时候,数组要进行扩容操作
     * The next size value at which to resize (capacity * load factor).
     *
     * @serial
     */
    int threshold;


[1] 处,为什么会要求HashMap的容量必须是2的幂,可以看看HashMap 容量为2次幂的原因https://blog.csdn.net/eaphyy/article/details/84386313


构造方法


java.util.HashMap#HashMap()

public HashMap() {
        // 使用默认的参数
        // 默认的负载因子、默认的容量
        this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
    }

 默认的构造函数里面并没有对table数组进行初始化,这个操作是在java.util.HashMap#putVal方法进行的


java.util.HashMap#HashMap(int)


public HashMap(int initialCapacity) {
        // 调用重载构造函数
        // 指定初始容量,默认的负载因子
        this(initialCapacity, DEFAULT_LOAD_FACTOR);
    }


java.util.HashMap#HashMap(int, float)


public HashMap(int initialCapacity, float loadFactor) {
        // 指定初始容量,指定负载因子
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " +
                                               initialCapacity);
        if (initialCapacity > MAXIMUM_CAPACITY)
            // 指定的初始容量大于最大容量,则取最大容量
            initialCapacity = MAXIMUM_CAPACITY;
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            // 检查负载因子
            throw new IllegalArgumentException("Illegal load factor: " +
                                               loadFactor);
        this.loadFactor = loadFactor;
        // 手动指定HashMap的容量的时候,HashMap的阈值设置跟负载因子无关
        this.threshold = tableSizeFor(initialCapacity); // [1]
    }


tableSizeFor这个方法的作用是,根据指定的容量,大于指定容量的最小的2幂的值比如说,给定15,返回16;给定30,返回32

tableSizeFor 方法是一个很牛逼的方法,5行代码看得我一脸懵逼


java.util.HashMap#HashMap(java.util.Map)

 public HashMap(Map<? extends K, ? extends V> m) {
        // 使用默认的负载因子
        this.loadFactor = DEFAULT_LOAD_FACTOR;
        putMapEntries(m, false);
    }
    final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
        int s = m.size();
        if (s > 0) {
            // 判断table是否已经实例化
            if (table == null) { // pre-size
                // 计算m的扩容上限
                float ft = ((float)s / loadFactor) + 1.0F;
                // 检查扩容上限是否大于HashMap的最大容量
                int t = ((ft < (float)MAXIMUM_CAPACITY) ?
                         (int)ft : MAXIMUM_CAPACITY);
                if (t > threshold) {
                    // m的扩容上限大于当前HashMap的扩容上限,则需要重新调整
                    threshold = tableSizeFor(t);
                }
            }
            else if (s > threshold)
                // m.size大于扩容上限,执行resize方法,扩容table
                resize();
            for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
                // 将m中所有的键值对添加到HashMap中
                K key = e.getKey();
                V value = e.getValue();
                putVal(hash(key), key, value, false, evict);
            }
        }
    }


putMapEntries方法的流程:

  1. 如果table为空,则重新计算扩容上限
  2. 如果HashMap的扩容上限小于指定Map的size,那么执行resize进行扩容
  3. 将指定Map中所有的键值通过putVal方法放到HashMap中
这里使用到的 hash 函数实际上是一个扰动函数,下文会介绍的


Very重要的方法


java.util.HashMap#tableSizeFor


/**
     * 静态工具方法
     * 根据指定的容量,大于指定容量的最小的2幂的值
     * 备注:牛逼的算法
     * Returns a power of two size for the given target capacity.
     */
    static final int tableSizeFor(int cap) {
        /*
        算法的原理请看
        HashMap源码注解 之 静态工具方法hash()、tableSizeFor()(四) - 程序员 - CSDN博客
        https://blog.csdn.net/fan2012huan/article/details/51097331
         */
        int n = cap - 1;
        n |= n >>> 1;
        n |= n >>> 2;
        n |= n >>> 4;
        n |= n >>> 8;
        n |= n >>> 16;
        return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
    }


算法的流程如下


d27e97512c45e48b47693cdd8a278478.jpg


位移的那五句代码是真的很牛逼!如果看完流程图以后,还不懂,那就看看注释里面的文章吧


java.util.HashMap#hash


 // 扰动函数
    static final int hash(Object key) {
        int h;
        // 混合原始Hash值的高位和地位,减少低位碰撞的几率
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }


为什么会有这个函数出现?

首先我们要了解,HashMap是根据key的hash值中几个低位的值来确定key在table中对应的index这句话怎么理解呢?我举个栗子

有一个32位的hash值如下030ac84d13218253d0cfaf77cb80cd09.jpg


如果取Hash值的低4位,则index = 0101 = 5

如果出现大量的低4位为0101的hash值,那么所有键值对都会放在table的index = 5的地方

这样就会导致key无法均匀分布在table中

那么HashMap为了解决这个问题,就搞出了这个方法java.util.HashMap#hash把一个32位的hash值的高16位 & 低16位,那么低位就会携带高位的信息说白了就是,即使有大量hash值低位相同的key,经历过hash方法后,计算得到的index会不一样

通过hash方法降低hash冲突的概率


java.util.HashMap#resize


 /**
     * 对table初始化操作或扩容操作
     *
     * @return the table
     */
    final Node<K,V>[] resize() {
        // 拿出旧table快照
        Node<K,V>[] oldTab = table;
        // 检查旧table容量
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
        // 旧的扩容上限
        int oldThr = threshold;
        // 新table的容量和扩容上限
        int newCap, newThr = 0;
        if (oldCap > 0) {
            if (oldCap >= MAXIMUM_CAPACITY) {
                // 如果旧table的容量大于HashMap的最大容量,则不进行扩容操作了
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                // 没有超过HashMap的最大容量,则扩容两倍(newCap,newThr)
                newThr = oldThr << 1; // double threshold
        }
        else if (oldThr > 0) // initial capacity was placed in threshold
            // 只设置了扩容上限,没有初始化table,将初始容量设置为扩容上限
            newCap = oldThr;
        else {               // zero initial threshold signifies using defaults
            // 没有设置扩容上限,没有初始化table,则使用默认的容量(16)和扩容上限(12)
            // 比如:java.util.HashMap.HashMap()
            newCap = DEFAULT_INITIAL_CAPACITY;
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        if (newThr == 0) {
            // newThr在oldCap > 0的条件扩容两倍后仍然等于0,那就说明,oldThr原本就是0
            // 重新计算新的扩容上限
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
        // 更新HashMap的扩容上限
        threshold = newThr;
        @SuppressWarnings({"rawtypes","unchecked"})
            Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        // 初始化table
        table = newTab;
        // 如果old table不为空,则需要将里面的
        if (oldTab != null) {
            for (int j = 0; j < oldCap; ++j) {
                Node<K,V> e;
                if ((e = oldTab[j]) != null) {
                    oldTab[j] = null;
                    if (e.next == null)
                        // 链表上只有一个节点,根据节点hash值,重新计算e在newTab中的index
                        newTab[e.hash & (newCap - 1)] = e;
                    else if (e instanceof TreeNode)
                        // 链表已经转成红黑树,拆分树
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    else { // preserve order
                        // 定义两个链表,lo链表和hi链表
                        Node<K,V> loHead = null, loTail = null;
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        do {
                            next = e.next;
                            // 通过hash值&oldCap判断链表上的节点是否应该停留新table中的原位置
                            if ((e.hash & oldCap) == 0) {
                                // 节点仍然停留在位置j
                                // 插入lo链表(尾插法)
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                            else {
                                // 节点转移到位置j+oldCap
                                // 插入hi链表(尾插法)
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                        if (loTail != null) {
                            // 如果lo链表非空, 把整个lo链表放到新table的j位置上
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        if (hiTail != null) {
                            // 如果hi链表非空,把整个hi链表放到新table的j+oldCap位置上
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }


resize流程并不复杂,大致如下

6d0159a1b23a918a32392ff72627d418.png

个人认为,比较关键的一点是重新分配键值对到新table这个时候要考虑三种情况:

  1. table中index位置只有一个元素
  2. table中index位置上是一棵红黑树
  3. table中index位置上是一条链表(重点看这个


如果是第3种情况,table中index位置上是一条链表,再重新分配的时候,会把这个链表拆分成两条链表


一条lo链表,留在原来的index位置另一条hi链表,会被移动到index+oldCapacity的位置此时,需要判断节点是留在lo链表,还是放在hi链表?推荐看一下这篇文章 深入理解HashMap(四): 关键源码逐行分析之resize扩容https://segmentfault.com/a/1190000015812438?utm_source=tag-newest


在jdk1.7里,table的扩容在多线程并发执行下会形成环,墙裂推荐仔细阅读这篇文章🎉🎉 HashMap链表成环的原因和解决方案https://www.douban.com/note/734486437/


java.util.HashMap#treeifyBin


 final void treeifyBin(Node<K,V>[] tab, int hash) {
        int n, index; Node<K,V> e;
        if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
            // [1] table的长度小于最小树形化阈值,执行resize方法扩容
            resize();
        else if ((e = tab[index = (n - 1) & hash]) != null) {
            // 将链表转成红黑树
            // hd头节点、tl尾节点
            TreeNode<K,V> hd = null, tl = null;
            // do-while循环将单向链表转成双向链表
            do {
                // 将节点转成TreeNode
                TreeNode<K,V> p = replacementTreeNode(e, null);
                if (tl == null)
                    // 设置根节点
                    hd = p;
                else {
                    // 将树节点的前一个节点指向尾节点
                    p.prev = tl;
                    tl.next = p;
                }
                tl = p;
            } while ((e = e.next) != null);
            // 将双向链表转成红黑树
            if ((tab[index] = hd) != null)
                hd.treeify(tab);
        }
    }


treeifyBin方法的作用是将table中某个index位置上的链表转成红黑树这个方法一般是在添加或合并元素后,发现链表的长度大于TREEIFY_THRESHOLD的时候调用

[1]处可以看到,如果当前table.length小于最小树形化阈值(64),那么会调用resize方法进行扩容,而不是将链表树形化


java.util.HashMap#putVal

 final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        if ((tab = table) == null || (n = tab.length) == 0)
            // [1] table还没有初始化,通过resize方法初始化table
            n = (tab = resize()).length;
        if ((p = tab[i = (n - 1) & hash]) == null)
            // 如果key的hash值在table上对应的位置没有元素,则直接将创建节点
            tab[i] = newNode(hash, key, value, null);
        else {
            // table上对应的位置已经存在节点
            Node<K,V> e; K k;
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                // 指定的key与已存在的节点的key相等
                e = p;
            else if (p instanceof TreeNode)
                // 链表节点已变成红黑树节点
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            else {
                // 遍历链表,插入或更新节点
                for (int binCount = 0; ; ++binCount) {
                    if ((e = p.next) == null) {
                        // 在链表的尾部新添加一个节点
                        p.next = newNode(hash, key, value, null);
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            // TREEIFY_THRESHOLD - 1的原因是binCount是从0开始,链表上有8个节点的时候,binCount=7
                            // 添加节点后,当链表的节点数量大于等于8的时候,将链表树形化
                            // [2]
                            treeifyBin(tab, hash);
                        break;
                    }
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        // 在链表中发现了key对应的节点
                        break;
                    p = e;
                }
            }
            if (e != null) { // existing mapping for key
                // 发现了key对应的节点,则更新节点上的value
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    // 更新节点对应的值
                    e.value = value;
                afterNodeAccess(e);
                // 返回节点的旧值
                return oldValue;
            }
        }
        ++modCount;
        if (++size > threshold)
            // [3]
            resize();
        afterNodeInsertion(evict);
        return null;
    }


putVal方法是添加键值对相关方法的实现

6e58180de2e4bef021f02f40ba665f31.png

上图可以看到,添加键值对的方法内部都会调用putVal方法

[1]处可以看到,putVal方法内部通过调用resize方法对table进行初始化整体逻辑并不复杂,但是要注意一下[2]、[3]处

[2]处,如果添加节点后,链表过长,要将链表转成红黑树

[3]处,如果添加节点后,整个HashMap的键值对数量达到了扩容上限,那么要对table进行扩容操作


总结


如果说ArrayList的源码阅读难度是一星半,那么我觉得HashMap的源码阅读难度至少有三颗星

这篇文章省略了一些内容,比如HashMap里面的红黑树实现,不写上去的原因主要是我也不是很懂红黑树,后续的时间如果我弄懂了,我会再补一篇

最起码这篇文章把HashMap最重要的几个方法的实现讲得比较明白,还是可以的

目录
相关文章
|
9天前
|
存储 缓存 算法
HashMap深度解析:从原理到实战
HashMap,作为Java集合框架中的一个核心组件,以其高效的键值对存储和检索机制,在软件开发中扮演着举足轻重的角色。作为一名资深的AI工程师,深入理解HashMap的原理、历史、业务场景以及实战应用,对于提升数据处理和算法实现的效率至关重要。本文将通过手绘结构图、流程图,结合Java代码示例,全方位解析HashMap,帮助读者从理论到实践全面掌握这一关键技术。
48 13
|
3天前
|
存储 设计模式 算法
【23种设计模式·全精解析 | 行为型模式篇】11种行为型模式的结构概述、案例实现、优缺点、扩展对比、使用场景、源码解析
行为型模式用于描述程序在运行时复杂的流程控制,即描述多个类或对象之间怎样相互协作共同完成单个对象都无法单独完成的任务,它涉及算法与对象间职责的分配。行为型模式分为类行为模式和对象行为模式,前者采用继承机制来在类间分派行为,后者采用组合或聚合在对象间分配行为。由于组合关系或聚合关系比继承关系耦合度低,满足“合成复用原则”,所以对象行为模式比类行为模式具有更大的灵活性。 行为型模式分为: • 模板方法模式 • 策略模式 • 命令模式 • 职责链模式 • 状态模式 • 观察者模式 • 中介者模式 • 迭代器模式 • 访问者模式 • 备忘录模式 • 解释器模式
【23种设计模式·全精解析 | 行为型模式篇】11种行为型模式的结构概述、案例实现、优缺点、扩展对比、使用场景、源码解析
|
3天前
|
设计模式 存储 安全
【23种设计模式·全精解析 | 创建型模式篇】5种创建型模式的结构概述、实现、优缺点、扩展、使用场景、源码解析
结构型模式描述如何将类或对象按某种布局组成更大的结构。它分为类结构型模式和对象结构型模式,前者采用继承机制来组织接口和类,后者釆用组合或聚合来组合对象。由于组合关系或聚合关系比继承关系耦合度低,满足“合成复用原则”,所以对象结构型模式比类结构型模式具有更大的灵活性。 结构型模式分为以下 7 种: • 代理模式 • 适配器模式 • 装饰者模式 • 桥接模式 • 外观模式 • 组合模式 • 享元模式
【23种设计模式·全精解析 | 创建型模式篇】5种创建型模式的结构概述、实现、优缺点、扩展、使用场景、源码解析
|
3天前
|
设计模式 存储 安全
【23种设计模式·全精解析 | 创建型模式篇】5种创建型模式的结构概述、实现、优缺点、扩展、使用场景、源码解析
创建型模式的主要关注点是“怎样创建对象?”,它的主要特点是"将对象的创建与使用分离”。这样可以降低系统的耦合度,使用者不需要关注对象的创建细节。创建型模式分为5种:单例模式、工厂方法模式抽象工厂式、原型模式、建造者模式。
【23种设计模式·全精解析 | 创建型模式篇】5种创建型模式的结构概述、实现、优缺点、扩展、使用场景、源码解析
|
1天前
HashMap源码浅分析与解读
阿华代码解读,不是逆风就是你疯HashMap 和TreeMap都继承于Map,Map是一个接口在实现这个接口的时候,需要实例化TreeMap或者HashMap。
|
22天前
|
PyTorch Shell API
Ascend Extension for PyTorch的源码解析
本文介绍了Ascend对PyTorch代码的适配过程,包括源码下载、编译步骤及常见问题,详细解析了torch-npu编译后的文件结构和三种实现昇腾NPU算子调用的方式:通过torch的register方式、定义算子方式和API重定向映射方式。这对于开发者理解和使用Ascend平台上的PyTorch具有重要指导意义。
|
4天前
|
安全 搜索推荐 数据挖掘
陪玩系统源码开发流程解析,成品陪玩系统源码的优点
我们自主开发的多客陪玩系统源码,整合了市面上主流陪玩APP功能,支持二次开发。该系统适用于线上游戏陪玩、语音视频聊天、心理咨询等场景,提供用户注册管理、陪玩者资料库、预约匹配、实时通讯、支付结算、安全隐私保护、客户服务及数据分析等功能,打造综合性社交平台。随着互联网技术发展,陪玩系统正成为游戏爱好者的新宠,改变游戏体验并带来新的商业模式。
|
2月前
|
Java
让星星⭐月亮告诉你,HashMap中保证红黑树根节点一定是对应链表头节点moveRootToFront()方法源码解读
当红黑树的根节点不是其对应链表的头节点时,通过调整指针的方式将其移动至链表头部。具体步骤包括:从链表中移除根节点,更新根节点及其前后节点的指针,确保根节点成为新的头节点,并保持链表结构的完整性。此过程在Java的`HashMap$TreeNode.moveRootToFront()`方法中实现,确保了高效的数据访问与管理。
32 2
|
2月前
|
Java 索引
让星星⭐月亮告诉你,HashMap之往红黑树添加元素-putTreeVal方法源码解读
本文详细解析了Java `HashMap` 中 `putTreeVal` 方法的源码,该方法用于在红黑树中添加元素。当数组索引位置已存在红黑树类型的元素时,会调用此方法。具体步骤包括:从根节点开始遍历红黑树,找到合适位置插入新元素,调整节点指针,保持红黑树平衡,并确保根节点是链表头节点。通过源码解析,帮助读者深入理解 `HashMap` 的内部实现机制。
42 2
|
2月前
|
算法 Java 容器
Map - HashSet & HashMap 源码解析
Map - HashSet & HashMap 源码解析
66 0

热门文章

最新文章

推荐镜像

更多