set
set之所以没有放到和Collection接口一块学习是因为set接口底层实现的还是Map接口。他只是相当于在map接口上做了一次封装。
set接口常用的方法
//源码中的 public interface Set<E> extends Collection<E> { int size(); boolean isEmpty(); boolean contains(Object o); Iterator<E> iterator(); Object[] toArray(); <T> T[] toArray(T[] a); boolean add(E e); boolean remove(Object o); boolean containsAll(Collection<?> c); boolean addAll(Collection<? extends E> c); boolean retainAll(Collection<?> c); boolean removeAll(Collection<?> c); void clear(); boolean equals(Object o); int hashCode(); @Override default Spliterator<E> spliterator() { return Spliterators.spliterator(this, Spliterator.DISTINCT); } }
特征:
- 不能存放重复的元素
- **存放数据是无序的 **(即添加和取出的顺序是不同的,虽然取出的顺序不一致,但是不会一直变)
- set接口对象不能通过索引来获取
HashSet
hashSet底层hashMap
而hashMap的底层其实是数组 + 链表 + 红黑树
//源码,hashSet的构造器 public HashSet() { map = new HashMap<>(); } public HashSet(Collection<? extends E> c) { map = new HashMap<>(Math.max((int) (c.size()/.75f) + 1, 16)); addAll(c); } public HashSet(int initialCapacity, float loadFactor) { map = new HashMap<>(initialCapacity, loadFactor); } public HashSet(int initialCapacity) { map = new HashMap<>(initialCapacity); } HashSet(int initialCapacity, float loadFactor, boolean dummy) { map = new LinkedHashMap<>(initialCapacity, loadFactor); }
底层如何实现: hash() + equals()
- 先获取元素的hash值
- 对hash值进行运算,得出一个索引值(就是存放在哈希表的位置号)
- 如果该位置上没有其他元素,则直接存入,如果有,那么就需要进行hash比较(调用equals方法) 不同就添加在该位置上元素的后面。相同则添加失败
Hash中添加元素重点★★★★★
1.调用add
2.进入put方法。 key就是传入的值。value就是上面的PRESENT【它的作用就是一个静态的常量】
// Dummy value to associate with an Object in the backing Map【要与后备映射中的对象关联的虚拟值】 private static final Object PRESENT = new Object();
3.进入hash(key)方法 ,得到hash值
无符号右移16位。源码详情
/** 计算 key.hashCode() 并将较高的哈希位传播 (XOR) 到较低的哈希位。由于该表使用二次方掩码,因此仅在当前掩码上方的位数上变化的哈希集将始终发生冲突。(已知的例子包括一组 Float 键,在小表中保存连续的整数。因此,我们应用了一个转换,将更高位的影响向下分散。在速度、效用和位传播质量之间需要权衡。因为许多常见的哈希集已经合理分布(所以不会从传播中受益),并且因为我们使用树来处理箱中的大量碰撞,所以我们只是以最便宜的方式对一些移位进行 XOR 以减少系统损失,并合并最高位的影响,否则由于表边界,这些位永远不会在索引计算中使用。 */ static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); }
执行putVal方法【重点】★★★★★
//实现Map.put()的相关方法 /* 实现 Map.put 和相关方法。 形参: 哈希 – 键的哈希 密钥 – 密钥 值 – 要放置的值 onlyIfAbsent – 如果为 true,则不更改现有值 逐出 – 如果为 false,则表处于创建模式。 返回值: 上一个值,如果没有,则为 null */ public V put(K key, V value) { return putVal(hash(key), key, value, false, true); } final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { //定义的辅助变量 Node<K,V>[] tab; Node<K,V> p; int n, i; //table就是hashMap的一个数组, 类型是Node[] //resize() : 重置数组大小,首次扩容到16个空间 if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; //1. 根据key得到的hash值 ,去计算该key应该存放到table表的哪个索引位置。并把这个位置的对象赋给p //2. 判断这个p是否等于null , 如果是null,就创建一个Node //然后放在tab[i]的位置 if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null); else { Node<K,V> e; K k; //如果当前索引位置对应的链表的第一个元素和准备添加的key的hash值一样&& //并且满足 准备加入的key 和 p指向的Node接待你的key是同一个对象 或者 不是同一个对象,但是内容相同 if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; //判断是否是一颗红黑树,如果是 那么就调用红黑树的putVal来进行添加 else if (p instanceof TreeNode) e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); //如果table对应的索引位置已经是一个链表,那么就使用for循环进行比较,如果最后都不同,那么就加入到链表的最后 else { for (int binCount = 0; ; ++binCount) { if ((e = p.next) == null) { p.next = newNode(hash, key, value, null); if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; } if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } if (e != null) { // existing mapping for key V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } ++modCount; if (++size > threshold) resize(); afterNodeInsertion(evict); return null; }
扩容机制
hashSet的扩容机制
- 首次扩容为 16 临界值(threshold) 是16 * 加载因子 也就是 0.75 = 12
- 如果table数组用到了临界值12 ,那么就会扩容到16 * 2 = 32, 与此同时,新的临界值就是 32 * 0.75 = 24以此类推
- 如果一个链表的个数到达 8 个及以上, 并且数组table的大小 >= 64 ,那么就会进行树化(红黑树!)否则任然采用数组扩容机制
- 对于java8来说,和java7之前的有所不同的是,他是先进行添加(如果达到阙值,比如:第一次添加为12),那么就是先将需要添加的元素进行添加,然后再进行扩容。
影响hashSet的性能
影响HashMap的性能: 初始容量(inital capacity)和负载系数(load factor)。初始容量指定了初始table的大小,负载系数用来指定自动扩容的临界值。当entry的数量超过capacity*load_factor时,容器将自动扩容并重新哈希。对于插入元素较多的场景,将初始容量设大可以减少重新哈希的次数。
hashCode()和equals():
hashCode()方法决定了对象会被放到哪个bucket里,当多个对象的哈希值冲突时,equals()方法决定了这些对象是否是“同一个对象”。
所以,如果要将自定义的对象放入到HashMap或HashSet中,需要**@Override** hashCode()和equals()方法。
HashMap中的get方法
hashSet中的获取元素是通过迭代器来实现,但是迭代器也是通过hashMap实现
- 首先直接调用HashMap的keySet()方法获得一个Set对象,该Set对象的实际类型是KeySet对象
- 接着再调用KeySet对象的iterator()方法,该方法会返回一个KeyIterator对象
- 最后向调用者返回迭代器对象
get() 方法是根据指定的key返回value, 对于hash来说,虽然他底层实现是通过hashMap来实现的,但是它却不是继承HashMap 。而是Collection接口。
//源码 public V get(Object key) { Node<K,V> e; return (e = getNode(hash(key), key)) == null ? null : e.value; } //通过上面的调用得到该方法【hashMap中的方法】 final Node<K,V> getNode(int hash, Object key) { Node<K,V>[] tab; Node<K,V> first, e; int n; K k; if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { if (first.hash == hash && // always check first node ((k = first.key) == key || (key != null && key.equals(k)))) return first; if ((e = first.next) != null) { if (first instanceof TreeNode) return ((TreeNode<K,V>)first).getTreeNode(hash, key); do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } return null; }
该方法调用了getEntry(Object key)得到相应的entry,然后返回entry.getValue()。因此getEntry()是算法的核心。 算法思想是首先通过hash()函数得到对应bucket的下标,然后依次遍历冲突链表,通过key.equals(k)方法来判断是否是要找的那个entry。
上图中hash(k)&(table.length-1)等价于hash(k)%table.length,原因是HashMap要求table.length必须是2的指数,因此table.length-1就是二进制低位全是1,跟hash(k)相与会将哈希值的高位全抹掉,剩下的就是余数了
HashSet子类—-LinkedHashSet
同时实现set接口
- 底层是LinkedhashMap,维护的是数组 + 双向链表
- 不允许添加重复的元素
- 使用hashCode来决定元素的存储位置。同时使用链表又使得位置连续
- 添加的元素是有序的(双向链表!)
构造器
public LinkedHashSet(int initialCapacity, float loadFactor) { super(initialCapacity, loadFactor, true); } public LinkedHashSet(int initialCapacity) { super(initialCapacity, .75f, true); } //默认初始range为16 public LinkedHashSet() { super(16, .75f, true); } public LinkedHashSet(Collection<? extends E> c) { super(Math.max(2*c.size(), 11), .75f, true); addAll(c); }
put
对于添加元素 和之前的相差不大,只是在加入节点时有下列的修改
- 先求hash值,再求索引
- 确定元素在hashTable(hash表)的位置。然后将元素加入双向链表中。
- 需要将pre 和 next 都进行赋值
遍历得到元素
事实上LinkedHashMap是HashMap的直接子类,二者唯一的区别是*LinkedHashMap*在*HashMap*的基础上,采用双向链表(doubly-linked list)的形式将所有entry连接起来,这样是为保证元素的迭代顺序跟插入顺序相同。上图给出了LinkedHashMap的结构图,主体部分跟HashMap完全一样,多了header指向双向链表的头部(是一个哑元),该双向链表的迭代顺序就是entry的插入顺序。
除了可以保迭代历顺序,这种结构还有一个好处 :
迭代LinkedHashMap时不需要像HashMap那样遍历整个table,而只需要直接遍历header指向的双向链表即可,也就是说LinkedHashMap的迭代时间就只跟entry的个数相关,而跟table的大小无关。