您的位置:首页 > 编程语言 > Java开发

JDK源码分析 – HashMap

2018-09-03 03:04 786 查看

HashMap类的申明

HashMap的定义如下:

public class HashMap<K,V> extends AbstractMap<K,V>
implements Map<K,V>, Cloneable, Serializable {}


HashMap是一个散列表,用于存储key-value形式的键值对。

从源码的定义中可以看到HashMap继承了AbstractMap抽象类而且也实现了Map<K,V>接口,AbstractMap类本身也继承了Map<K,V>接口,Map接口定义了一些map数据结构的基本操作, AbstractMap提供了Map接口的一些默认实现。

HashMap实现了Cloneable接口和Serializable接口,这两个接口本身并没有定义方法,属于申明式接口,允许hashmap进行克隆和序列化。

另外,HashMap不是线程安全的,如果需要使用线程安全的HashMap,可以使用Collections类中的synchronizedMap方法来获得线程安全的HashMap:

Map map = Collections.synchronizedMap(new HashMap());

HashMap主要字段属性说明

//hashmap的初始容量:16
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16

//hashmap的最大容量,hashmap的容量必须是2的指数值
static final int MAXIMUM_CAPACITY = 1 << 30;

//默认填充因子
static final float DEFAULT_LOAD_FACTOR = 0.75f;

//链表转换为树的阀值:如果一个桶中的元素个数超过 TREEIFY_THRESHOLD=8 ,就使用红黑树来替换链表,从而提高速度
static final int TREEIFY_THRESHOLD = 8;

//树还原为链表的阈值:扩容时桶中元素小于UNTREEIFY_THRESHOLD = 6,则把树形的桶元素还原为链表结构
static final int UNTREEIFY_THRESHOLD = 6;

//哈希表的最小树形化容量:当哈希表中的容量大于这个值MIN_TREEIFY_CAPACITY = 64时,哈希表中的桶才能进行树形化,否则桶中元素过多时只会扩容,并不会进行树形化, 为了避免扩容和树形化选择的冲突,这个值不能小于4* TREEIFY_THRESHOLD = 32
static final int MIN_TREEIFY_CAPACITY = 64;

//hashmap用于存储数据的Node数组,长度是2的指数值
transient Node<K,V>[] table;

//保存entrySet返回的结果
transient Set<Map.Entry<K,V>> entrySet;

//hashmap中键值对个数
transient int size;

//hashmap对象修改计数器
transient int modCount;

// threshold=容量*装载因子,代表目前占用数组长度的最大值,用于判断是否需要扩容
int threshold;

//装载因子,用来衡量hashmap装载数据程度,默认值为EFAULT_LOAD_FACTOR = 0.75f,装载因子计算方法size/capacity
final float loadFactor;


查阅资料发现在JDK1.8之前hashmap的通过数组+链表的数据结构实现的,这样在hash值大量冲突时hashmap是通过一个长长的链表来存储的,JDK1.8开始,hashmap采用数组+链表+红黑树组合数据结构来实现,链表和红黑树将会按一定策略互相转换,JDK1.8开始,hashmap的存储结构大致如下:



回顾一下关于红黑树的定义:

1. 每个结点或是红色的,或是黑色的

2. 根节点是黑色的

3. 每个叶结点(NIL)是黑色的

4. 如果一个节点是红色的,则它的两个儿子都是黑色的

5. 对于每个结点,从该结点到其子孙结点的所有路径上包含相同数目的黑色结点

HashMap部分方法析

构造函数

无参数构造函数:设置装载因子初始值0.75

public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}


HashMap(int initialCapacity) :指定初始容量

public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}


HashMap(int initialCapacity) :指定初始容量和装载因子

public HashMap(int initialCapacity, float loadFactor) {
  //初始容量校验
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
  //校验初始容量不能超过hashmap最大容量:2的30次方
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY; //初始化为最大容量
  //校验装载因子
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
  //根据根据初始化参数initialCapacity 返回大于等于该值得最小 2的指数值 作为初始容量
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}


这个构造函数可以发现初始化hashmap的容量并不是随意指定多少就初始化多少,内部根据传入的容量值做了转换,严格的将hashmap的初始容量转换成的2的指数值,比如我们初始化一个new HashMap(25),实际初始化处来的容量是32,相当于new HashMap(32)

HashMap(Map<? extends K, ? extends V> m):初始化一个hashmap,使用默认加载因子0.75,并将hashmap参数值复制到新创建的hashmap对象中。

public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}


put(K key, V value)

向hashmap中添加健值对

public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}

//hash:hashkey
//key value :键值对
//onlyIfAbsent:为true则不修改已存在的value
//evict:返回被修改的value
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {

Node<K,V>[] tab;
Node<K,V> p;
int n, i;
  //如果table为null或者空,则进行resize扩容
if ((tab = table) == null || (n = tab.length) == 0)
//执行resize扩容,内部将初始化table和threshold
n = (tab = resize()).length;
  //如果对应索引处没有Node,则新建Node并放到table里面
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null); //tab[i]==null的情况,直接新创建节点并赋值给tab[i]
else {
  //else的情况表示tab[i]不为null
Node<K,V> e;
     K k;
    //1:hash值与tab[i]的hash值相等且key也相等,那么覆盖该节点的value域
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;//暂存tab[i]的节点p到临时变量e
     //2:判断tab[i]是否是红黑树
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);//添加到树形结构中
else {
    //3:不是红黑树 且不是第1中情况,即:hash值一致,但是key不一致,那么需要将新的key-value添加到链表末尾
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
            //添加到链表末尾
p.next = newNode(hash, key, value, null);
            //如果该节点的链表长度大于8,则需要将链表转换为红黑树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
//如果key已经存在该链表中,直接break,执行后续更新逻辑
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
      /hash值和key相等的情况下,更新value
if (!onlyIfAbsent || oldValue == null)
e.value = value;
//
afterNodeAccess(e);
      //返回旧的value值
return oldValue;
}
}
  //修改次数自增
++modCount;
    //判断是否需要再次扩容
if (++size > threshold)
resize();
//
afterNodeInsertion(evict);
return null;
}


上面的代码即便加了注释,看上不也不是很清晰,csdn有篇文章分析了hash的这个方法,并给出了一个流程图,逻辑很清晰:



图片来源:https://blog.csdn.net/lianhuazy167/article/details/66967698

上面put方法的实现中用到了一个很重要的方法resize(),这个方法的作用是当hashmap集合中的元素已经超过最大承载容量时,则对hashmap进行容量扩充。最大装载容量threshold=capacity*loadFactor,这个值一般小于数组的长度,下面看一下这个方法的实现过程:

//初始化或者是扩展table的容量,table的容量时按照2的指数增长的,当扩大table容量时,元素的hash值以及位置可能发生改变
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
  //计算当前哈希表 table数组长度
int oldCap = (oldTab == null) ? 0 : oldTab.length;
  //当前阈值(装载容量=数组长度*装载因子)
int oldThr = threshold;
int newCap, newThr = 0;
  //如果table数组长度大于0
if (oldCap > 0) {
  //table数组长度大于等于hashmap默认的最大值: 2的30次方
if (oldCap >= MAXIMUM_CAPACITY) {
      //扩充为为int型最大值
threshold = Integer.MAX_VALUE;
return oldTab;
}
    //如果table数据长度>=初始化长度(16) 而且 扩展1倍也小于默认最大长度:2的30次方
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
    // threshold 阈值扩大一倍
newThr = oldThr << 1; // double threshold
}
//如果原先的装载容量>0,直接将新容量赋值为 原先的装载容量oldThr->oldThreshold
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else {               // zero initial threshold signifies using defaults
    //原先的阈值oldThr< =0 而且table长度也=0,这说明hashmap还未初始化,执行初始化
newCap = DEFAULT_INITIAL_CAPACITY;//数组长度赋值16
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); //
}
  //计算新的阈值上限
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
    //更新为新的阈值
threshold = newThr;
    //重新分配table容量
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
  //把原先table中的复制到新的table中
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}


Hashmap的扩容机制主要实现步骤:

如果当前数组为空,则初始化当前数组(长度16,装载因子0.75)

如果当前数组不为空,则将当前数组容量扩大一倍,同时将阈值(threshold)也扩大一倍,然后将之前table素组中值全部复制到新的table中

get(Object key)

通过key获取对应的value,实现逻辑:根据key计算hash值,通过hash值和key从hashmap中检索出唯一的结果并返回。

public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
//hash:key对应的hash值
//key:键值对的key
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;

if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {  // tab[(n - 1) & hash]
    // 根据hash值计算出table中的位置,如果该位置第一个节点 key 和 hash值都和传递进来的参数相等,则返回该Node
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
      //该键值对在hash表(n - 1) & hash索引处,但是不是第一个节点,多以遍历该链表(也可能是红黑树),不管是链表还是树,顺藤摸瓜就对了
if ((e = first.next) != null) {
        //如果是红黑树,则遍历树型结构
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
      //不是树,遍历链表
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}

//计算hash值
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}


get方法逻辑并没有什么难懂得地方,但是过程中有两个地方需要额外注意一下:

tab[(n - 1) & hash]): 根据hash值计算元素位置,其中n为hashmap中table数组长度,这里使用(n-1)&hash的方式计算索引位置,简单解释一下这个含义,hashmap中数组的大小总是2的指数值,这种特殊的情况之下(n-1)&hash等同于hash%n取模运算结果,并且使用(n-1)&hash位运算的方式效率上也高于取模运算。

hash(key):计算hash值,这个函数并不是直接通过hashCode()获取hash值,而是做了一步位运算(h = key.hashCode()) ^ (h >>> 16),即将hashcode的高16为与低16位异或运算,为什么这么做呢?因为hashcode()返回的是一个32位的int类型数值,将该数值的高16位与低16位做异或运算主要是想让高位数据参与运算,增加hash值得随机性。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: