JDK源码分析 – HashMap
2018-09-03 03:04
786 查看
HashMap类的申明
HashMap的定义如下:public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable {}
HashMap是一个散列表,用于存储key-value形式的键值对。
从源码的定义中可以看到HashMap继承了AbstractMap抽象类而且也实现了Map<K,V>接口,AbstractMap类本身也继承了Map<K,V>接口,Map接口定义了一些map数据结构的基本操作, AbstractMap提供了Map接口的一些默认实现。
HashMap实现了Cloneable接口和Serializable接口,这两个接口本身并没有定义方法,属于申明式接口,允许hashmap进行克隆和序列化。
另外,HashMap不是线程安全的,如果需要使用线程安全的HashMap,可以使用Collections类中的synchronizedMap方法来获得线程安全的HashMap:
Map map = Collections.synchronizedMap(new HashMap());
HashMap主要字段属性说明
//hashmap的初始容量:16 static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16 //hashmap的最大容量,hashmap的容量必须是2的指数值 static final int MAXIMUM_CAPACITY = 1 << 30; //默认填充因子 static final float DEFAULT_LOAD_FACTOR = 0.75f; //链表转换为树的阀值:如果一个桶中的元素个数超过 TREEIFY_THRESHOLD=8 ,就使用红黑树来替换链表,从而提高速度 static final int TREEIFY_THRESHOLD = 8; //树还原为链表的阈值:扩容时桶中元素小于UNTREEIFY_THRESHOLD = 6,则把树形的桶元素还原为链表结构 static final int UNTREEIFY_THRESHOLD = 6; //哈希表的最小树形化容量:当哈希表中的容量大于这个值MIN_TREEIFY_CAPACITY = 64时,哈希表中的桶才能进行树形化,否则桶中元素过多时只会扩容,并不会进行树形化, 为了避免扩容和树形化选择的冲突,这个值不能小于4* TREEIFY_THRESHOLD = 32 static final int MIN_TREEIFY_CAPACITY = 64; //hashmap用于存储数据的Node数组,长度是2的指数值 transient Node<K,V>[] table; //保存entrySet返回的结果 transient Set<Map.Entry<K,V>> entrySet; //hashmap中键值对个数 transient int size; //hashmap对象修改计数器 transient int modCount; // threshold=容量*装载因子,代表目前占用数组长度的最大值,用于判断是否需要扩容 int threshold; //装载因子,用来衡量hashmap装载数据程度,默认值为EFAULT_LOAD_FACTOR = 0.75f,装载因子计算方法size/capacity final float loadFactor;
查阅资料发现在JDK1.8之前hashmap的通过数组+链表的数据结构实现的,这样在hash值大量冲突时hashmap是通过一个长长的链表来存储的,JDK1.8开始,hashmap采用数组+链表+红黑树组合数据结构来实现,链表和红黑树将会按一定策略互相转换,JDK1.8开始,hashmap的存储结构大致如下:
![](https://oscdn.geek-share.com/Uploads/Images/Content/201809/ea5afcda8e69dc0af06fb64c52309c53.png)
回顾一下关于红黑树的定义:
1. 每个结点或是红色的,或是黑色的
2. 根节点是黑色的
3. 每个叶结点(NIL)是黑色的
4. 如果一个节点是红色的,则它的两个儿子都是黑色的
5. 对于每个结点,从该结点到其子孙结点的所有路径上包含相同数目的黑色结点
HashMap部分方法析
构造函数
无参数构造函数:设置装载因子初始值0.75public HashMap() { this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted }
HashMap(int initialCapacity) :指定初始容量
public HashMap(int initialCapacity) { this(initialCapacity, DEFAULT_LOAD_FACTOR); }
HashMap(int initialCapacity) :指定初始容量和装载因子
public HashMap(int initialCapacity, float loadFactor) { //初始容量校验 if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); //校验初始容量不能超过hashmap最大容量:2的30次方 if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; //初始化为最大容量 //校验装载因子 if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); this.loadFactor = loadFactor; this.threshold = tableSizeFor(initialCapacity); } //根据根据初始化参数initialCapacity 返回大于等于该值得最小 2的指数值 作为初始容量 static final int tableSizeFor(int cap) { int n = cap - 1; n |= n >>> 1; n |= n >>> 2; n |= n >>> 4; n |= n >>> 8; n |= n >>> 16; return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; }
这个构造函数可以发现初始化hashmap的容量并不是随意指定多少就初始化多少,内部根据传入的容量值做了转换,严格的将hashmap的初始容量转换成的2的指数值,比如我们初始化一个new HashMap(25),实际初始化处来的容量是32,相当于new HashMap(32)
HashMap(Map<? extends K, ? extends V> m):初始化一个hashmap,使用默认加载因子0.75,并将hashmap参数值复制到新创建的hashmap对象中。
public HashMap(Map<? extends K, ? extends V> m) { this.loadFactor = DEFAULT_LOAD_FACTOR; putMapEntries(m, false); }
put(K key, V value)
向hashmap中添加健值对public V put(K key, V value) { return putVal(hash(key), key, value, false, true); } //hash:hashkey //key value :键值对 //onlyIfAbsent:为true则不修改已存在的value //evict:返回被修改的value final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; //如果table为null或者空,则进行resize扩容 if ((tab = table) == null || (n = tab.length) == 0) //执行resize扩容,内部将初始化table和threshold n = (tab = resize()).length; //如果对应索引处没有Node,则新建Node并放到table里面 if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null); //tab[i]==null的情况,直接新创建节点并赋值给tab[i] else { //else的情况表示tab[i]不为null Node<K,V> e; K k; //1:hash值与tab[i]的hash值相等且key也相等,那么覆盖该节点的value域 if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p;//暂存tab[i]的节点p到临时变量e //2:判断tab[i]是否是红黑树 else if (p instanceof TreeNode) e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);//添加到树形结构中 else { //3:不是红黑树 且不是第1中情况,即:hash值一致,但是key不一致,那么需要将新的key-value添加到链表末尾 for (int binCount = 0; ; ++binCount) { if ((e = p.next) == null) { //添加到链表末尾 p.next = newNode(hash, key, value, null); //如果该节点的链表长度大于8,则需要将链表转换为红黑树 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; } //如果key已经存在该链表中,直接break,执行后续更新逻辑 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } if (e != null) { // existing mapping for key V oldValue = e.value; /hash值和key相等的情况下,更新value if (!onlyIfAbsent || oldValue == null) e.value = value; // afterNodeAccess(e); //返回旧的value值 return oldValue; } } //修改次数自增 ++modCount; //判断是否需要再次扩容 if (++size > threshold) resize(); // afterNodeInsertion(evict); return null; }
上面的代码即便加了注释,看上不也不是很清晰,csdn有篇文章分析了hash的这个方法,并给出了一个流程图,逻辑很清晰:
![](https://oscdn.geek-share.com/Uploads/Images/Content/201809/c4befd0a512cf890d30c0ee171165b09.png)
图片来源:https://blog.csdn.net/lianhuazy167/article/details/66967698
上面put方法的实现中用到了一个很重要的方法resize(),这个方法的作用是当hashmap集合中的元素已经超过最大承载容量时,则对hashmap进行容量扩充。最大装载容量threshold=capacity*loadFactor,这个值一般小于数组的长度,下面看一下这个方法的实现过程:
//初始化或者是扩展table的容量,table的容量时按照2的指数增长的,当扩大table容量时,元素的hash值以及位置可能发生改变 final Node<K,V>[] resize() { Node<K,V>[] oldTab = table; //计算当前哈希表 table数组长度 int oldCap = (oldTab == null) ? 0 : oldTab.length; //当前阈值(装载容量=数组长度*装载因子) int oldThr = threshold; int newCap, newThr = 0; //如果table数组长度大于0 if (oldCap > 0) { //table数组长度大于等于hashmap默认的最大值: 2的30次方 if (oldCap >= MAXIMUM_CAPACITY) { //扩充为为int型最大值 threshold = Integer.MAX_VALUE; return oldTab; } //如果table数据长度>=初始化长度(16) 而且 扩展1倍也小于默认最大长度:2的30次方 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) // threshold 阈值扩大一倍 newThr = oldThr << 1; // double threshold } //如果原先的装载容量>0,直接将新容量赋值为 原先的装载容量oldThr->oldThreshold else if (oldThr > 0) // initial capacity was placed in threshold newCap = oldThr; else { // zero initial threshold signifies using defaults //原先的阈值oldThr< =0 而且table长度也=0,这说明hashmap还未初始化,执行初始化 newCap = DEFAULT_INITIAL_CAPACITY;//数组长度赋值16 newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); // } //计算新的阈值上限 if (newThr == 0) { float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } //更新为新的阈值 threshold = newThr; //重新分配table容量 @SuppressWarnings({"rawtypes","unchecked"}) Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; table = newTab; //把原先table中的复制到新的table中 if (oldTab != null) { for (int j = 0; j < oldCap; ++j) { Node<K,V> e; if ((e = oldTab[j]) != null) { oldTab[j] = null; if (e.next == null) newTab[e.hash & (newCap - 1)] = e; else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); else { // preserve order Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { next = e.next; if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); if (loTail != null) { loTail.next = null; newTab[j] = loHead; } if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab; }
Hashmap的扩容机制主要实现步骤:
如果当前数组为空,则初始化当前数组(长度16,装载因子0.75)
如果当前数组不为空,则将当前数组容量扩大一倍,同时将阈值(threshold)也扩大一倍,然后将之前table素组中值全部复制到新的table中
get(Object key)
通过key获取对应的value,实现逻辑:根据key计算hash值,通过hash值和key从hashmap中检索出唯一的结果并返回。public V get(Object key) { Node<K,V> e; return (e = getNode(hash(key), key)) == null ? null : e.value; } //hash:key对应的hash值 //key:键值对的key final Node<K,V> getNode(int hash, Object key) { Node<K,V>[] tab; Node<K,V> first, e; int n; K k; if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { // tab[(n - 1) & hash] // 根据hash值计算出table中的位置,如果该位置第一个节点 key 和 hash值都和传递进来的参数相等,则返回该Node if (first.hash == hash && // always check first node ((k = first.key) == key || (key != null && key.equals(k)))) return first; //该键值对在hash表(n - 1) & hash索引处,但是不是第一个节点,多以遍历该链表(也可能是红黑树),不管是链表还是树,顺藤摸瓜就对了 if ((e = first.next) != null) { //如果是红黑树,则遍历树型结构 if (first instanceof TreeNode) return ((TreeNode<K,V>)first).getTreeNode(hash, key); //不是树,遍历链表 do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } return null; } //计算hash值 static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); }
get方法逻辑并没有什么难懂得地方,但是过程中有两个地方需要额外注意一下:
tab[(n - 1) & hash]): 根据hash值计算元素位置,其中n为hashmap中table数组长度,这里使用(n-1)&hash的方式计算索引位置,简单解释一下这个含义,hashmap中数组的大小总是2的指数值,这种特殊的情况之下(n-1)&hash等同于hash%n取模运算结果,并且使用(n-1)&hash位运算的方式效率上也高于取模运算。
hash(key):计算hash值,这个函数并不是直接通过hashCode()获取hash值,而是做了一步位运算(h = key.hashCode()) ^ (h >>> 16),即将hashcode的高16为与低16位异或运算,为什么这么做呢?因为hashcode()返回的是一个32位的int类型数值,将该数值的高16位与低16位做异或运算主要是想让高位数据参与运算,增加hash值得随机性。
相关文章推荐
- HashMap源码之hash()函数分析(JDK 1.8)
- JDK1.8 HashMap源码分析
- JDK1.7之 HashMap 源码分析
- HashMap源码之hash()函数分析(JDK 1.8)
- JDK中ArrayList、HashMap和HashSet的equals方法源码分析
- HashMap源码分析(基于JDK1.6)
- jdk1.8 HashMap源码分析(put函数)
- Java中HashMap底层实现原理(JDK1.8)源码分析
- 从JDK源码分析HashMap
- JDK源码分析(三)——HashMap 下(基于JDK8)
- jdk1.8 hashMap源码分析
- HashMap源码分析——JDK1.8
- Java面试绕不开的问题: Java中HashMap底层实现原理(JDK1.8)源码分析
- JDK源码学习之HashMap (一) : 底层存储结构分析
- 【JDK源码分析】浅谈HashMap的原理
- HashMap源码分析——JDK1.8
- JDK源码分析(三)——HashMap 下(基于JDK8)
- jdk源码分析之ConcurrentHashMap
- JDK1.8源码分析之HashMap
- JDK源码-HashMap死锁分析