JDK1.8HashMap底层实现原理
Posted innocenter
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了JDK1.8HashMap底层实现原理相关的知识,希望对你有一定的参考价值。
//默认初始容量 2^4 16
//HashMap 底层数组的长度总是 2 的 n 次方,这一点可参看后面关于 HashMap 构造器的介绍;
//当length 总是 2 的倍数时,h & (length-1)将是一个非常巧妙的设计:假设 h=5,length=16, 那么 h & length - 1 将得到 5;
//如果 h=6,length=16, 那么 h & length - 1 将得到 6 ……如果 h=15,length=16, 那么 h & length - 1 将得到 15;
//但是当 h=16 时 , length=16 时,那么 h & length - 1 将得到 0 了;当 h=17 时 , length=16 时
//那么 h & length - 1 将得到 1 了……这样保证计算得到的索引值总是位于 table 数组的索引之内
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
//容量最大值 2^30
static final int MAXIMUM_CAPACITY = 1 << 30;
//默认加载因子0.75;当表中超过75%的位置已经填入元素,这个表就会用双倍的桶数自动地进行;结合时间和空间效率考虑得到的一个折中方案
static final float DEFAULT_LOAD_FACTOR = 0.75f;
//链表转为红黑树的阀值;当桶内链表节点数>8;就会将桶内数据结构从链表转为红黑树
static final int TREEIFY_THRESHOLD = 8;
//进行resize;当<6时;红黑树转为链表;
static final int UNTREEIFY_THRESHOLD = 6;
//最小树形化容量阀值,为了避免进行扩容、树形化选择的冲突
//MIN_TREEIFY_CAPACITY出现在了treeifyBin()中,避免了在treeifyBin()前判断capacity与MIN_TREEIFY_CAPACITY比较的代码量过大
static final int MIN_TREEIFY_CAPACITY = 64;
//在第一次使用时初始化Node数组,桶对象数组
transient Node<K,V>[] table;
//当被调用entrySet时被赋值。通过keySet()方法可以得到map key的集合,通过values方法可以得到map value的集合
transient Set<Map.Entry<K,V>> entrySet;
//该HashMap中共有多少个键值对
transient int size;
//当前 HashMap 修改的次数,这个变量用来保证 fail-fast 机制
transient int modCount;
//阈值 下次需要扩容时的值,等于 容量*加载因子;threshold = capacity * load factor
int threshold;
//加载因子,默认得加载因子也是在构造函数里要赋值给这个得
final float loadFactor;
public HashMap(int initialCapacity, float loadFactor) {
//如果输入的容量设定小于0,则抛出异常
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
//如果设定长度大于最大值,则设定为最大值,即2^30
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
//装载因子小于等于0或者不是一个float类型的数,则抛出一个异常
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
//get方法
总的来讲就是
1.判断表是否为空或者待查找的桶不为空
2.首先检查待查找的桶的第一个元素是否是要找的元素,如果是直接返回
3.桶内红黑树,则调用getTreeNode()查找红黑树
4.桶内是链表,遍历链表寻找节点
public V get(Object key) {
Node<K,V> e;
// 根据hash(key)计算出位置,然后调用getNode找到节点
return (e = getNode(hash(key), key)) == null ? null : e.value;
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
//first是桶中的元素,如果只有这一个节点(不是链表)就可以直接返回了
//或者是链表但是首节点与传来的key一致(同一条链表上的节点主要是key的hash值相同)
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
//这里在链表或红黑树了
if ((e = first.next) != null) {
// 红黑树
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
//,先使用hash判断排除大部分相比于直接使用eauals判断提高一些效
do {
//先使用hash判断排除大部分相比于直接使用eauals判断提高一些效率
if (e.hash == hash &&
//然后遍历找到equal相等的
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
//put方法
总的来讲 就是
1.如果表为空或者表的长度为0,调用resize初始化表,为表分配空间
2.二次散列处的桶为空,直接插入元素;
3.桶不为空,桶处的第一个节点与待插入节点的哈希相同且key“相等”,直接赋给变量e,桶中是红黑树,
调用putTreeVal插入红黑树中,桶中是链表,遍历链表,如果其中存在相同的key,则赋给变量e;不存
在则尾插法加入链表,并判断节点数是否大于8,如果大于8则调用treeifyBin()转化为红黑树
4.e不为空,替换其中的value值,并返回旧的value值,e为空,表大小+1,判断是否达到了阈值,如果达到了则需要扩容
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 当散列表为空时,调用resize初始化散列表
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
//h&(length-1)其实就是取余通过h&(table.length -1)来得到该对象的保存位,而HashMap底层数组的长度总是2的n次方,这是HashMap在速度上的优化
//当length总是 2 的n次方时,h& (length-1)运算等价于对length取模,也就是h%length,但是&比%具有更高的效率
//取模(取余)运算转化成位运算公式:a%(2^n) 等价于 a&(2^n-1),而&操作比%操作具有更高的效率
// 如果要插入的位置没有元素,新建个节点并放进去即没有发生碰撞时,直接添加元素到散列表中
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
// 发生了碰撞
Node<K,V> e; K k;
// 如果要插入的元素,桶的key和hash都相等(即与首节点匹配),记录下来
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
//如果是红黑树 调用树的插入方法
else if (p instanceof TreeNode)
//放到树里
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
// 链表结构,找到了key映射的节点,就记录这个节点,退出循环
//如果没有找到,在链表尾部插入节点。插入后如果发现临界值大于TREEIFY_THRESHOLD转为红黑树
// 对链表进行遍历,并统计链表长度
for (int binCount = 0; ; ++binCount) {
//到达链表底部
if ((e = p.next) == null) {
//在尾部插入新节点
p.next = newNode(hash, key, value, null);
// 如果节点数量达到阀值,则转化为红黑树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
//转为红黑树方法(此次没有详细解释)
treeifyBin(tab, hash);
break;
}
// 判断链表中节点的key值与插入的元素的key是否相等
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
判断要插入的键值对是否存在HashMap中
if (e != null) { // existing mapping for key
//新值覆盖
V oldValue = e.value;
//onlyIfAbsent表示是否仅在lodValue为null情况下更新键值对的值
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
//resize方法
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
// 这里就代表不是第一次扩容
if (oldCap > 0) {
// 如果旧的容量比最大容量还要大,那不能散列,返回旧的散列表
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 新的阈值是旧的两倍 double threshold 且容量也为旧的两倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
// 如果旧容量<=0 而旧阈值>0,数组的新容量设置为老数组扩容的阈值
// 这个应该使用的是带参数的构造函数(这个已经将阈值弄为2的次方了(使用tableSizeFor方法),所以不用担心容量不为2的次方了)
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
// 这里是旧容量<=0 且旧阈值<=0 旧阈值<=0,代表使用的默认不带参数的构造函数 // 第一次初始化散列表的操作到oldTab != null之前
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
// 这里就是对使用的带参数的构造函数的后续处理
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
// 这里回答了为什么阈值之前不是容量和加载因子的乘积了,在resize初始化table时会重新赋值
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
// 将旧散列表复制到新散列表中
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
// 红黑树
else if (e instanceof TreeNode)
// 重新映射时,需要对红黑树进行拆分
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
//链表
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
// 遍历链表,并将链表节点按原顺序进行分组
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
// 将分组后的链表映射到新桶中
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
小弟不才,这是hashmap 存取值的部分原理剖析;后续有补充再加上
以上是关于JDK1.8HashMap底层实现原理的主要内容,如果未能解决你的问题,请参考以下文章