HashMap扫盲

Posted Felix周

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了HashMap扫盲相关的知识,希望对你有一定的参考价值。

上一篇文章  详细讲解了hash算法,其中挖了几个小坑,在这篇来填坑。

HashMap的底层数组长度总是为2的整次幂?

首先咋们先创建一个HashMap

 
   
   
 
  1. Map map = new HashMap(16);

将会执行HashMap的一个有参构造:

 
   
   
 
  1.    public HashMap(int initialCapacity) {

  2.        this(initialCapacity, DEFAULT_LOAD_FACTOR);

  3.    }

然后调用 this(initialCapacity,DEFAULT_LOAD_FACTOR);DEFAULT_LOAD_FACTOR默认为0.75f。如下:

 
   
   
 
  1.    public HashMap(int initialCapacity, float loadFactor) {

  2.        if (initialCapacity < 0)

  3.            throw new IllegalArgumentException("Illegal initial capacity: " +

  4.                                               initialCapacity);

  5.        if (initialCapacity > MAXIMUM_CAPACITY)

  6.            initialCapacity = MAXIMUM_CAPACITY;

  7.        if (loadFactor <= 0 || Float.isNaN(loadFactor))

  8.            throw new IllegalArgumentException("Illegal load factor: " +

  9.                                               loadFactor);

  10.        this.loadFactor = loadFactor;

  11.        this.threshold = tableSizeFor(initialCapacity);

  12.    }

第一个if简单判断长度。 

第二个判断的是 initialCapacity如果大于 MAXIMUM_CAPACITY的话,就等于 MAXIMUM_CAPACITY, MAXIMUM_CAPACITY是HashMap指定的一个最大容量,值为 1<<30,1左移30,就是1*2的30次方,值为1073741824。

为什么是30次方呢?因为如果是31的话就是负数 -2147483648了, 1<<30是最接近int的最大值的。 

第三个判断也简单不说了。

注意 this.threshold=tableSizeFor(initialCapacity);这里调用了 tableSizeFor方法

来看下 tableSizeFor方法实现:

 
   
   
 
  1.    static final int tableSizeFor(int cap) {

  2.        int n = cap - 1;

  3.        n |= n >>> 1;

  4.        n |= n >>> 2;

  5.        n |= n >>> 4;

  6.        n |= n >>> 8;

  7.        n |= n >>> 16;

  8.        return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;

  9.    }

新手可能看到这一脸懵逼,哎呀这啥啊,怎么那么多无符号右移运算,或运算?? 别急,一步一步来。

假设咋们初始化大小为17,把值代入:

可以看到返回32

再测试其它几个数字吧

 
   
   
 
  1.        int[] arr = {1,12,16,17,23,33,43,54,67,344};

  2.        for (int i = 0; i < arr.length; i++) {

  3.            System.out.print(tableSizeFor(arr[i]) + " ");

  4.        }

结果:

 
   
   
 
  1. 1 16 16 32 32 64 64 64 128 512

观察该结果,我们发现这些数字都是 2n次幂,并且,返回的结果还是离该整数 最近的2次幂。比如cap=17,离它最近的2次幂是32;cap=43,离它最近的2次幂是64;cap=16,离它最近的2次幂是16,即本身。

所以,咋们初始化HashMap的时候,你给它指定的长度不管是奇数还是偶数,经过tableSizeFor方法后,都会重新赋值为离该整数 最近的2次幂

HashMap到底是什么时候初始化的?

当你在敲以下代码

 
   
   
 
  1. Map map = new HashMap(16);

的时候,你以为这个map初始化了吗?贴下构造方法:

 
   
   
 
  1.    public HashMap(int initialCapacity, float loadFactor) {

  2.        if (initialCapacity < 0)

  3.            throw new IllegalArgumentException("Illegal initial capacity: " +

  4.                                               initialCapacity);

  5.        if (initialCapacity > MAXIMUM_CAPACITY)

  6.            initialCapacity = MAXIMUM_CAPACITY;

  7.        if (loadFactor <= 0 || Float.isNaN(loadFactor))

  8.            throw new IllegalArgumentException("Illegal load factor: " +

  9.                                               loadFactor);

  10.        this.loadFactor = loadFactor;

  11.        this.threshold = tableSizeFor(initialCapacity);

  12.    }


  13.    public HashMap(int initialCapacity) {

  14.        this(initialCapacity, DEFAULT_LOAD_FACTOR);

  15.    }


  16.    public HashMap() {

  17.        this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted

  18.    }

很明显构造方法里面并没有对这个map初始化,即使你指的了长度为16,它也仅仅是将这个数字先进行 tableSizeFor函数运算再保存!!

那么什么时候才会初始化呢?答案是添加操作。

 
   
   
 
  1.    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,

  2.                   boolean evict) {

  3.        Node<K,V>[] tab; Node<K,V> p; int n, i;

  4.        if ((tab = table) == null || (n = tab.length) == 0)

  5.            n = (tab = resize()).length;

  6.        if ((p = tab[i = (n - 1) & hash]) == null)

  7.            tab[i] = newNode(hash, key, value, null);

  8.        else {


  9.            ...


  10.        }

  11.        ++modCount;

  12.        if (++size > threshold)

  13.            resize();

  14.        afterNodeInsertion(evict);

  15.        return null;

  16.    }

可以看到第一个if判断,table为null的时候,调用 resize()方法,去初始化table

看下resize():

 
   
   
 
  1.    final Node<K,V>[] resize() {

  2.        Node<K,V>[] oldTab = table; // table就是buckets数组

  3.        int oldCap = (oldTab == null) ? 0 : oldTab.length;

  4.        int oldThr = threshold;

  5.        int newCap, newThr = 0;

  6.        // oldCap大于0,进行扩容,设置阈值与新的容量

  7.        if (oldCap > 0) {

  8.            if (oldCap >= MAXIMUM_CAPACITY) {

  9.                threshold = Integer.MAX_VALUE;

  10.                return oldTab;

  11.            }

  12.            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&

  13.                     oldCap >= DEFAULT_INITIAL_CAPACITY)

  14.                newThr = oldThr << 1; // double threshold

  15.        }

  16.        // oldCap = 0,oldThr大于0,那么就把阈值做为新容量以进行初始化

  17.        // 这种情况发生在用户调用了带有参数的构造函数(会对threshold进行初始化)

  18.        else if (oldThr > 0) // initial capacity was placed in threshold

  19.            newCap = oldThr;

  20.        // oldCap与oldThr都为0,这种情况发生在用户调用了无参构造函数

  21.        // 采用默认值进行初始化

  22.        else {               // zero initial threshold signifies using defaults

  23.            newCap = DEFAULT_INITIAL_CAPACITY;

  24.            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);

  25.        }

  26.        if (newThr == 0) {

  27.            float ft = (float)newCap * loadFactor;

  28.            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?

  29.                      (int)ft : Integer.MAX_VALUE);

  30.        }

  31.        threshold = newThr;

  32.        //创建

  33.        @SuppressWarnings({"rawtypes","unchecked"})

  34.            Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];

  35.        table = newTab;

  36.        if (oldTab != null) {


  37.            ...


  38.        }

  39.        return newTab;

  40.    }

看代码我们可以知道,当调用 newHashMap(16)时,会走 oldThr>0这个分支;调用 newHashMap()时,会走 else分支,然后执行 Node<K,V>[]newTab=(Node<K,V>[])newNode[newCap];完成初始化,返回newTab。

所以,HashMap初始化是在第一次put元素的时候进行的。

JDK1.8HashMap存储结构做了哪些优化?

1.8之前

存储结构采用的是数组与链表相结合的方式,数组存储的是链表的链头,链接下一个节点。存储方式如下图所见。也即是哈希拉链法,该设计方式旨在解决哈希冲突(碰撞),哈希值相同时,存储于同一条链表。

HashMap扫盲

1.8

引入了红黑树,当链表长度大于一定阈值时,将链表转换为红黑树,结构如下。

HashMap扫盲

使用红黑树的原因主要是随着数据越来越多,hash冲突也越来越多,原先的链表也越来越长,查询也越来越慢,因此引入红黑树结构,红黑树能够以O(log2(N))的时间复杂度进行搜索、插入、删除操作,效率可以得到很大的提升。

查看默认阈值情况如下源码,默认树化的阈值为 8,而链表化的阈值为 6。

 
   
   
 
  1.    /**

  2.     * The bin count threshold for using a tree rather than list for a

  3.     * bin.  Bins are converted to trees when adding an element to a

  4.     * bin with at least this many nodes. The value must be greater

  5.     * than 2 and should be at least 8 to mesh with assumptions in

  6.     * tree removal about conversion back to plain bins upon

  7.     * shrinkage.

  8.     */

  9.    static final int TREEIFY_THRESHOLD = 8;


  10.    /**

  11.     * The bin count threshold for untreeifying a (split) bin during a

  12.     * resize operation. Should be less than TREEIFY_THRESHOLD, and at

  13.     * most 6 to mesh with shrinkage detection under removal.

  14.     */

  15.    static final int UNTREEIFY_THRESHOLD = 6;

JDK1.8HashMap添加操作优化

1.8之前:

 
   
   
 
  1. public V put(K key, V value) {

  2.     if (key == null)

  3.         return putForNullKey(value);

  4.     int hash = hash(key.hashCode());

  5.     int i = indexFor(hash, table.length);

  6.     for (Entry<K,V> e = table[i]; e != null; e = e.next) {

  7.         Object k;

  8.         if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {

  9.             V oldValue = e.value;

  10.             e.value = value;

  11.             e.recordAccess(this);

  12.             return oldValue;

  13.         }

  14.     }

  15.     modCount++;

  16.     addEntry(hash, key, value, i);

  17.     return null;

  18. }

操作过程:

  1. 根据key计算hash

  2. 根据hash计算下标

  3. 若该链头为空,则创建节点,插入该值作为链头。

  4. 若链头不为空,则遍历该链表,通过验证哈希值 与 key.equals(k) 相结合的验证方式寻找 key 值节点。并且,该结合方式也有助于减少验证的计算,因为哈希不相等必定键值不相等,相等才通过 equals 函数验证。 4.1 若找到该键值,则修改对应值。 4.2 否则,在链头插入该值节点。

1.8之后:put 函数的底层由 putVal 实现

 
   
   
 
  1.    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,

  2.                   boolean evict) {

  3.        Node<K,V>[] tab; Node<K,V> p; int n, i;

  4.         // 第一次调用put(),初始化table

  5.        if ((tab = table) == null || (n = tab.length) == 0)

  6.            n = (tab = resize()).length;

  7.        // 没有发生碰撞,直接放入到数组

  8.        if ((p = tab[i = (n - 1) & hash]) == null)

  9.            tab[i] = newNode(hash, key, value, null);

  10.        else {

  11.            Node<K,V> e; K k;

  12.            // 发生碰撞(头节点就是目标节点)

  13.            if (p.hash == hash &&

  14.                ((k = p.key) == key || (key != null && key.equals(k))))

  15.                e = p;

  16.            // 节点为红黑树

  17.            else if (p instanceof TreeNode)

  18.                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);

  19.            // 节点为链表

  20.            else {

  21.                for (int binCount = 0; ; ++binCount) {

  22.                    // 未找到目标节点,在链表尾部链接新节点

  23.                    if ((e = p.next) == null) {

  24.                        p.next = newNode(hash, key, value, null);

  25.                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st

  26.                             // 链表过长,转换为红黑树

  27.                            treeifyBin(tab, hash);

  28.                        break;

  29.                    }

  30.                    // 找到目标节点,退出循环

  31.                    if (e.hash == hash &&

  32.                        ((k = e.key) == key || (key != null && key.equals(k))))

  33.                        break;

  34.                    p = e;

  35.                }

  36.            }

  37.            // 节点已存在,替换value

  38.            if (e != null) { // existing mapping for key

  39.                V oldValue = e.value;

  40.                if (!onlyIfAbsent || oldValue == null)

  41.                    e.value = value;

  42.                afterNodeAccess(e);

  43.                return oldValue;

  44.            }

  45.        }

  46.        ++modCount;

  47.        // 超过临界值,进行扩容

  48.        if (++size > threshold)

  49.            resize();

  50.        afterNodeInsertion(evict);

  51.        return null;

  52.    }

操作过程:

  1. 数组是否为null,为null就就行 resize()

  2. 判断该链头是否哈希值相等且键值相等,若是,则修改该节点的值。

  3. 否则,验证该节点是否为红黑树,若是,进行 putTreeVal 操作插入到红黑树中。

  4. 若不是红黑树,即是链表,则与 JDK 1.8 之前插入方式相同(如上所述)。

扩容操作

HashMap的容量超过当前数组长度(DEFAULTINITIALCAPACITY)*加载因子(DEFAULTLOADFACTOR),就会执行resize()算法。假设初始长度为16,加载因子默认为0.75, 16*0.75=12,当HashMap容量超过12时,就会执行扩容操作。长度是原来的两倍(旧的长度左移一位),并且将原来的HashMap数组的节点转换到新的数组。

 
   
   
 
  1.    final Node<K,V>[] resize() {

  2.        // table就是buckets数组

  3.        Node<K,V>[] oldTab = table;

  4.        int oldCap = (oldTab == null) ? 0 : oldTab.length;

  5.        int oldThr = threshold;

  6.        int newCap, newThr = 0;

  7.        if (oldCap > 0) {

  8.            // 超过最大值不会进行扩容,并且把阈值设置成Interger.MAX_VALUE

  9.            if (oldCap >= MAXIMUM_CAPACITY) {

  10.                threshold = Integer.MAX_VALUE;

  11.                return oldTab;

  12.            }

  13.            // 没超过最大值,扩容为原来的2倍

  14.            // 向左移1位等价于乘2

  15.            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&

  16.                     oldCap >= DEFAULT_INITIAL_CAPACITY)

  17.                newThr = oldThr << 1; // double threshold

  18.        }

  19.        // oldCap = 0,oldThr大于0,那么就把阈值做为新容量以进行初始化

  20.        // 这种情况发生在用户调用了带有参数的构造函数(会对threshold进行初始化)

  21.        else if (oldThr > 0) // initial capacity was placed in threshold

  22.            newCap = oldThr;

  23.        // oldCap与oldThr都为0,这种情况发生在用户调用了无参构造函数

  24.        // 采用默认值进行初始化

  25.        else {               // zero initial threshold signifies using defaults

  26.            newCap = DEFAULT_INITIAL_CAPACITY;

  27.            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);

  28.        }

  29.        // 如果newThr还没有被赋值,那么就根据newCap计算出阈值

  30.        if (newThr == 0) {

  31.            float ft = (float)newCap * loadFactor;

  32.            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?

  33.                      (int)ft : Integer.MAX_VALUE);

  34.        }

  35.        threshold = newThr;

  36.        @SuppressWarnings({"rawtypes","unchecked"})

  37.            Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];

  38.        table = newTab;

  39.        // 如果oldTab != null,代表这是扩容操作

  40.           // 需要将扩容前的数组数据迁移到新数组

  41.        if (oldTab != null) {

  42.            // 遍历oldTab的每一个bucket,然后移动到newTab

  43.            for (int j = 0; j < oldCap; ++j) {

  44.                Node<K,V> e;

  45.                if ((e = oldTab[j]) != null) {

  46.                    oldTab[j] = null;

  47.                    // 索引j的bucket只有一个Entry(未发生过碰撞)

  48.                    // 直接移动到newTab

  49.                    if (e.next == null)

  50.                        newTab[e.hash & (newCap - 1)] = e;

  51.                    // 如果是一个树节点(代表已经转换成红黑树了)

  52.                    // 那么就将这个节点拆分为lower和upper两棵树

  53.                    // 首先会对这个节点进行遍历

  54.                    // 只要当前节点的hash & oldCap == 0就链接到lower树

  55.                    // 注意这里是与oldCap进行与运算,而不是oldCap - 1(n - 1)

  56.                    // oldCap就是扩容后新增有效位的掩码

  57.                    // 比如oldCap=16,二进制10000,n-1 = 1111,扩容后的n-1 = 11111

  58.                    // 只要hash & oldCap == 0,就代表hash的新增有效位为0

  59.                    // 否则就链接到upper树(新增有效位为1)

  60.                    // lower会被放入newTab[原索引j],upper树会被放到newTab[原索引j + oldCap]

  61.                    // 如果lower或者upper树的节点少于阈值,会被退化成链表

  62.                    else if (e instanceof TreeNode)

  63.                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);

  64.                    else { // preserve order

  65.                        // 下面操作的逻辑与分裂树节点基本一致

  66.                        // 只不过split()操作的是TreeNode

  67.                        // 而且会将两条TreeNode链表组织成红黑树

  68.                        Node<K,V> loHead = null, loTail = null;

  69.                        Node<K,V> hiHead = null, hiTail = null;

  70.                        Node<K,V> next;

  71.                        do {

  72.                            next = e.next;

  73.                            if ((e.hash & oldCap) == 0) {

  74.                                if (loTail == null)

  75.                                    loHead = e;

  76.                                else

  77.                                    loTail.next = e;

  78.                                loTail = e;

  79.                            }

  80.                            else {

  81.                                if (hiTail == null)

  82.                                    hiHead = e;

  83.                                else

  84.                                    hiTail.next = e;

  85.                                hiTail = e;

  86.                            }

  87.                        } while ((e = next) != null);

  88.                        if (loTail != null) {

  89.                            loTail.next = null;

  90.                            newTab[j] = loHead;

  91.                        }

  92.                        if (hiTail != null) {

  93.                            hiTail.next = null;

  94.                            newTab[j + oldCap] = hiHead;

  95.                        }

  96.                    }

  97.                }

  98.            }

  99.        }

  100.        return newTab;

  101.    }


了解了以上几个操作,再看下put()操作流程图回顾下: 

HashMap扫盲


Felix周I D : fel ix_space


欢迎扫描下方二维码,持续关注
HashMap扫盲


Felix周(id:felix_space



给Ta留言 点击进入小程序留言

以上是关于HashMap扫盲的主要内容,如果未能解决你的问题,请参考以下文章

我就不信你还不懂HashSet/HashMap的底层原理

HashMap 和 ConcurrentHashMap 的区别

HashMap原理:哈希函数的设计

HashMap深度解析

JDK源码阅读之 HashMap

ArrayList 和 HashMap 的默认大小是多数?