HashMap原理阅读

简介: 前言还是需要从头阅读下HashMap的源码。目标在于更好的理解HashMap的用法,学习更精炼的编码规范,以及应对面试。它根据键的hashCode值存储数据,大多数情况下可以直接定位到它的值,因而具有很快的访问速度,但遍历顺序却是不确定的。

前言

还是需要从头阅读下HashMap的源码。目标在于更好的理解HashMap的用法,学习更精炼的编码规范,以及应对面试。

它根据键的hashCode值存储数据,大多数情况下可以直接定位到它的值,因而具有很快的访问速度,但遍历顺序却是不确定的。 HashMap最多只允许一条记录的键为null,允许多条记录的值为null。HashMap非线程安全,即任一时刻可以有多个线程同时写HashMap,可能会导致数据的不一致。如果需要满足线程安全,可以用 Collections的synchronizedMap方法使HashMap具有线程安全的能力,或者使用ConcurrentHashMap。

面试官: 说说HashMap的原理

答: HashMap是通过哈希表的数组链表实现的。内部维护一个Node数组,

当put时,计算key hash后的值当做索引。如果数组中该位置为null,则放入value。然后判断是否需要扩容,返回null。

如果数组上已经有元素,判断hash和key是否相等,相等就表示找到node节点了,不相等则判断该元素是TreeNode还是普通Node。

如果是TreeNode,则按照TreeNode的put方法插入。

如果不是TreeNode, 遍历链表,对比hash和key,若都不相等,则插入队尾,如果链表长度大于等于8,将链表转换为TreeNode.

找到node之后,node不为null则赋值value。最后返回原来的value。

完毕。

img_8db4a3bdfb238da1a1c4431d2b6e075c.png
img_58e67eae921e4b431782c07444af824e.png

面试官: 如何扩容

答:(直接说1.8的内容,想要装逼体验深度就对比1.7. 比如1.7扩容会导致链表重排倒置,1.8不会,1.8不用再次计算hash等。当然,这样回答要准备好继续入坑,为什么,如何做到)

要说扩容,首先要知道原来的容量以及什么时候扩容。HashMap初始化的时候可以指定initialCapacityloadfactorcapacity是2的指数倍,表示数组的长度。

loadfactor表示达到容量的百分比后扩容。threshold=capacity*loadfactor就是HashMap对象中可以容纳的最大K-V键值对数量。

所以,当size(当前K-V键值对数量)超过threshold,则进行扩容。当然,如果capacity已经大于2^30,则直接将threshold=Integer.MAX_VALUE, 就不扩容了,碰撞吧。

扩容的时候先计算容量,扩大为原来的2倍,对应threshold也扩大为原来的2倍。

然后将原来数组上的元素复制到新的数组。对于冲突碰撞的结点,是TreeNode则按TreeNode插入,不是TreeNode则将链表的一半平分到其他新增的索引位置。

关于几个数字。loadfactor=0.75; DEFAULT_INITIAL_CAPACITY = 1 << 4; MAXIMUM_CAPACITY = 1 << 30; TREEIFY_THRESHOLD = 8。也就是说,对于我们平时直接new 的HashMap对象,默认数组长度为16,最大容纳12个,超过12个则扩容;当发生碰撞的数量小于8个则维护链表,当数量大于8个则改造成TreeNode.

img_544caeb82a329fa49cc99842818ed1ba.png

面试官: 说TreeNode是怎么put的

红黑树啊,红黑树我不会写。

面试官: 如何get

答: 既然知道HashMap的存储原理,那个get也就呼之欲出了。 首先,计算hash索引,如果头结点不为null,如果头结点hash以及key都相等,则取出。

如果头结点不相等,并且next不为nul,判断next是否是TreeNode, 如果是TreeNode则TreeNode get.

如果不是TreeNode, 遍历链表,找到hash和key相等的取出value。

在这里,非常感谢美团技术博客中的《Java 8系列之重新认识HashMap》, 深入,透彻,易懂。

面试官: HashMap是线程安全的吗

答:不是,高并发中不仅会不安全,还有可能造成死循环(扩容的时候)。想要在并发中使用,请使用ConcurrentHashMap.

初始化,构造函数

HashMap<String, Object> map = new HashMap<>();

对应源码为:

/**
 * Constructs an empty <tt>HashMap</tt> with the default initial capacity
 * (16) and the default load factor (0.75).
 */
public HashMap() {
    this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}

构造一个空的HashMap,默认容量(capacity)为16,默认负载因子(load factor)是0.75.

Put

/**
 * Associates the specified value with the specified key in this map.
 * If the map previously contained a mapping for the key, the old
 * value is replaced.
 *
 * @param key key with which the specified value is to be associated
 * @param value value to be associated with the specified key
 * @return the previous value associated with <tt>key</tt>, or
 *         <tt>null</tt> if there was no mapping for <tt>key</tt>.
 *         (A <tt>null</tt> return can also indicate that the map
 *         previously associated <tt>null</tt> with <tt>key</tt>.)
 */
public V put(K key, V value) {
    return putVal(hash(key), key, value, false, true);
}
  1. put的key需要计算hashcode
  2. put的value可以是任何对象
  3. 如果key存在则替换并返回前一个对象

/**
 * Computes key.hashCode() and spreads (XORs) higher bits of hash
 * to lower.  Because the table uses power-of-two masking, sets of
 * hashes that vary only in bits above the current mask will
 * always collide. (Among known examples are sets of Float keys
 * holding consecutive whole numbers in small tables.)  So we
 * apply a transform that spreads the impact of higher bits
 * downward. There is a tradeoff between speed, utility, and
 * quality of bit-spreading. Because many common sets of hashes
 * are already reasonably distributed (so don't benefit from
 * spreading), and because we use trees to handle large sets of
 * collisions in bins, we just XOR some shifted bits in the
 * cheapest possible way to reduce systematic lossage, as well as
 * to incorporate impact of the highest bits that would otherwise
 * never be used in index calculations because of table bounds.
 */
static final int hash(Object key) {
    int h;
    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}

重新计算hash,但仍旧根据key的hashcode的方法。

/**
 * Implements Map.put and related methods
 *
 * @param hash hash for key
 * @param key the key
 * @param value the value to put
 * @param onlyIfAbsent if true, don't change existing value
 * @param evict if false, the table is in creation mode.
 * @return previous value, or null if none
 */
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
               boolean evict) {
    //....
}
  1. 核心put方法,第一个参数是key的hash之后再hash. 这里,我开始有个疑问,就是发现所有调用putVal的地方的第一个参数的hash的计算方式都是一样的,觉得应该去掉第一个参数,直接在这个方法里hash(Key)就好了。事实上,确实可以这么做,但带来的问题是所有调用这个方法的地方都要用同样的hash方法。
  2. 第二个参数是key
  3. 第三个参数是value
  4. 第4个参数是区分putIfAbsent(k,v)的标志,true表示如果不存在则存储,已经存在则不存储;默认false,即覆盖。
  5. 第5个参数evict是逐出的意思,只在LinkedHashMap中有用,本处空调用。

存储原理概述

首先,需要准备背景知识,关于数字二进制表示,左移右移等。参阅 http://www.cnblogs.com/woshimrf/p/operation-bit.html

PutVal()


final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
    //内部数组
    Node<K,V>[] tab; 
    //指针
    Node<K,V> p; 
    //数组长度,索引
    int n, i;
    
    //初始化数组,对于新建的对象,没有put的时候是没有创建数组的
    if ((tab = table) == null || (n = tab.length) == 0)
        n = (tab = resize()).length;
        
    //计算索引,若当前结点为null,则直接直插入,完毕到返回。
    if ((p = tab[i = (n - 1) & hash]) == null)
        tab[i] = newNode(hash, key, value, null);
    else {
        Node<K,V> e; K k;  //e找到的结点,
        
        //如果当前结点hash相同,key相同,则找到结点
        if (p.hash == hash &&
            ((k = p.key) == key || (key != null && key.equals(k))))
            e = p;
        //如果是红黑树
        else if (p instanceof TreeNode)
            e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
        else {
            //遍历链表,p是指针,e为找到的结点
            for (int binCount = 0; ; ++binCount) {
                //遍历到尾结点后直接插入尾部新结点,此时e==null, 不参与后面的value覆盖逻辑。
                if ((e = p.next) == null) {
                    p.next = newNode(hash, key, value, null);
                    if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st, 当链表长度大于8后转换为红黑树
                        treeifyBin(tab, hash);
                    break;
                }
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    break;
                p = e;
            }
        }
        
        //找到结点后决定是否覆盖value
        if (e != null) { // existing mapping for key
            V oldValue = e.value;
            if (!onlyIfAbsent || oldValue == null)
                e.value = value;
            afterNodeAccess(e);
            return oldValue;
        }
    }
    
    ++modCount;//统计数组上的结点数量
    if (++size > threshold)   //当前K-V数量超过threshold后扩容
        resize();
    afterNodeInsertion(evict);
    return null;  //因为执行到此处的代码都是新插入的结点,所以返回空。
}

resize()


final Node<K,V>[] resize() {
    //保存旧的数组
    Node<K,V>[] oldTab = table;
    int oldCap = (oldTab == null) ? 0 : oldTab.length;
    int oldThr = threshold;
    int newCap, newThr = 0;
    
    if (oldCap > 0) {
        // 超过最大值就不再扩充了,就只好随你碰撞去吧
        if (oldCap >= MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return oldTab;
        }
        // 没超过最大值,就扩充为原来的2倍
        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                 oldCap >= DEFAULT_INITIAL_CAPACITY)
            newThr = oldThr << 1; // double threshold
    }
    else if (oldThr > 0) // initial capacity was placed in threshold
        newCap = oldThr;
    else {               // zero initial threshold signifies using defaults
        newCap = DEFAULT_INITIAL_CAPACITY;
        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
    }
    if (newThr == 0) {
        //出现了,threshold的计算公式
        float ft = (float)newCap * loadFactor;
        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                  (int)ft : Integer.MAX_VALUE);
    }
    threshold = newThr;
    //用新的capacity来创建数组
    @SuppressWarnings({"rawtypes","unchecked"})
        Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
    table = newTab;
    if (oldTab != null) {
        //开始迁移复制
        for (int j = 0; j < oldCap; ++j) {
            Node<K,V> e;
            if ((e = oldTab[j]) != null) {
                oldTab[j] = null;
                if (e.next == null) //数组结点直接复制
                    newTab[e.hash & (newCap - 1)] = e;
                else if (e instanceof TreeNode)   //红黑树结点
                    ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                else { // preserve order 对于碰撞的链表,优化,取出一半的结点到新的数组结点
                    Node<K,V> loHead = null, loTail = null;
                    Node<K,V> hiHead = null, hiTail = null;
                    Node<K,V> next;
                    do {
                        next = e.next;
                        // 原索引
                        if ((e.hash & oldCap) == 0) {
                            if (loTail == null)
                                loHead = e;
                            else
                                loTail.next = e;
                            loTail = e;
                        }
                         // 原索引+oldCap
                        else {
                            if (hiTail == null)
                                hiHead = e;
                            else
                                hiTail.next = e;
                            hiTail = e;
                        }
                    } while ((e = next) != null);
                    // 原索引放到bucket里
                    if (loTail != null) {
                        loTail.next = null;
                        newTab[j] = loHead;
                    }
                    // 原索引+oldCap放到bucket里
                    if (hiTail != null) {
                        hiTail.next = null;
                        newTab[j + oldCap] = hiHead;
                    }
                }
            }
        }
    }
    return newTab;
}

参考

https://tech.meituan.com/java-hashmap.html

    关注我的公众号

img_acfe50023e4718b33064273d65e4cd67.jpe
唯有不断学习方能改变! -- Ryan Miao
目录
相关文章
|
6月前
|
存储 缓存 安全
面试题-HashMap底层原理与HashTable的区别
字节跳动面试题-HashMap底层原理与HashTable的区别
60 0
|
6月前
|
存储 算法 Java
【深入挖掘Java技术】「源码原理体系」盲点问题解析之HashMap工作原理全揭秘(下)
在阅读了上篇文章《【深入挖掘Java技术】「源码原理体系」盲点问题解析之HashMap工作原理全揭秘(上)》之后,相信您对HashMap的基本原理和基础结构已经有了初步的认识。接下来,我们将进一步深入探索HashMap的源码,揭示其深层次的技术细节。通过这次解析,您将更深入地理解HashMap的工作原理,掌握其核心实现。
60 0
【深入挖掘Java技术】「源码原理体系」盲点问题解析之HashMap工作原理全揭秘(下)
|
存储 算法 安全
HashMap底层实现原理
HashMap底层实现原理
161 0
|
22天前
|
机器学习/深度学习 算法
让星星⭐月亮告诉你,HashMap之tableSizeFor(int cap)方法原理详解(分2的n次幂和非2的n次幂两种情况讨论)
`HashMap` 的 `tableSizeFor(int cap)` 方法用于计算一个大于或等于给定容量 `cap` 的最小的 2 的幂次方值。该方法通过一系列的无符号右移和按位或运算,逐步将二进制数的高位全部置为 1,最后加 1 得到所需的 2 的幂次方值。具体步骤包括: 1. 将 `cap` 减 1,确保已经是 2 的幂次方的值直接返回。 2. 通过多次无符号右移和按位或运算,将最高位 1 后面的所有位都置为 1。 3. 最终加 1,确保返回值为 2 的幂次方。 该方法保证了 `HashMap` 的数组容量始终是 2 的幂次方,从而优化了哈希表的性能。
31 1
|
2月前
|
设计模式 安全 Java
HashMap底层原理:数据结构+put()流程+2的n次方+死循环+数据覆盖问题
假如有T1、T2两个线程同时对某链表扩容,他们都标记头结点和第二个结点,此时T2阻塞,T1执行完扩容后链表结点顺序反过来,此时T2恢复运行再进行翻转就会产生环形链表,即B.next=A;采用2的指数进行扩容,是为了利用位运算,提高扩容运算的效率。JDK8中,HashMap采用尾插法,扩容时链表节点位置不会翻转,解决了扩容死循环问题,但是性能差了一点,因为要遍历链表再查到尾部。例如15(即2^4-1)的二进制为1111,31的二进制为11111,63的二进制为111111,127的二进制为1111111。
HashMap底层原理:数据结构+put()流程+2的n次方+死循环+数据覆盖问题
|
6月前
|
Java
HashMap原理解析
HashMap原理解析
161 47
|
存储 安全 Java
java学会这些,我就入门啦!(基础篇六)HashMap、Hashtable、ConcurrentHashMap的原理与区别
java学会这些,我就入门啦!(基础篇六)HashMap、Hashtable、ConcurrentHashMap的原理与区别
|
6月前
|
存储 缓存 安全
Java HashMap:哈希表原理、性能与优化
Java HashMap:哈希表原理、性能与优化
252 1
|
6月前
|
存储 安全 Java
【深入挖掘Java技术】「源码原理体系」盲点问题解析之HashMap工作原理全揭秘(上)
HashMap是基于Map接口构建的数据结构,它以键值对的形式存储元素,允许键和值都为null。由于键的唯一性,HashMap中只能有一个键为null。HashMap的特点是元素的无序性和不重复性。
65 1
【深入挖掘Java技术】「源码原理体系」盲点问题解析之HashMap工作原理全揭秘(上)