HashMap源码阅读

HashMap概述

hashMap是在Java中经常使用的一个类,继承自AbstractMap类实现了map接口,在jdk1.8中对hashMap进行了一次结构上的变动,以下是基于jdk1.8的hashMap的源码阅读及与1.7的比较。

HashMap的数据结构
graph1.png

上图为hashmap的数据结构图,hashMap本质上是一个数组,而每个数组元素是一个链表,当键值对存入hashMap时会根据他的key的hashcode来计算它存放在数组位置的下标,如果该数组位置已经存在元素(即发生了hash碰撞)就使用链表来解决冲突。
在jdk1.8中,当冲突元素过多导致链表过长时会将链表转换为红黑树来提高性能。

重要属性
//初始容量16
    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
//最大容量
    static final int MAXIMUM_CAPACITY = 1 << 30;
//默认负载因子 负载因子*容量 = 扩容阈值
    static final float DEFAULT_LOAD_FACTOR = 0.75f;

// 红黑树阈值,当单链表的节点长度超过阈值时使用红黑树来存储
    static final int TREEIFY_THRESHOLD = 8;

//当进行resize操作时导致树的节点数过少将树转换回链表的阈值。
    static final int UNTREEIFY_THRESHOLD = 6;

 //红黑树转换的数组长度阈值,当数组长度小于64时不进行红黑树转换而是扩容
    static final int MIN_TREEIFY_CAPACITY = 64;
    //这个即为hash表数组,它的长度即为hashmap的容量,他的长度总为2的次幂
    transient Node<K,V>[] table;

    //存放具体元素的集
    transient Set<Map.Entry<K,V>> entrySet;

    //存放的键值对的数量,并不是容量
    transient int size;

    //hashmap的结构发生变化的次数,用于快速失败处理
    transient int modCount;

    //resize的阈值
    int threshold;

    //负载因子
    final float loadFactor;
构造方法

hashMap的构造方法比较简单,举一例细说即可

public HashMap(int initialCapacity, float loadFactor) {
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " +
                                               initialCapacity);
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " +
                                               loadFactor);
        this.loadFactor = loadFactor;
        //tableSizeFor()方法通过一系列无符号右移和或运算找到大于initialCapacity的最小2的次幂的数
        this.threshold = tableSizeFor(initialCapacity);
    }
重要方法

1、PutVal方法

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        //表为空
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
        //该hash位没有元素
        if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);
        else { //该hash位已经存在元素的情况
            Node<K,V> e; K k;
            //比较第一个元素,hash值和equal都相等,保存在e中进行记录
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
            //该位置是红黑树,进行红黑树节点的添加
            else if (p instanceof TreeNode)
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            else {
                for (int binCount = 0; ; ++binCount) {
                    //到达链表底部,新建节点
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
                        //新建节点后导致该链表过长,转树
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }
                    //在本链表中找到了key和hash都相等的节点
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    //结合e=p->next来进行链表的遍历
                    p = e;
                }
            }
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
        }
        //hashmap结构修改次数+1
        ++modCount;
        //新增节点之后判断是否要扩容
        //注意!!!此处与jdk1.7不同,jdk1.7中进行resize操作是要求size>threshold且该hashmap的
        //每个位置都不能为null,也就是说每个位置都至少存在一个元素才会扩容,因此在1.7中进行调
        //试的时候会发现键值对的数量明明超过了阈值但是并没有进行扩容的现象。在1.8中不存在这种
        //情况只要超过了阈值就会进行扩容。
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);
        return null;
    }

hashMap的put方法实际上是调用这个putVal()方法来实现的,基本的放入过程已经在注释中解释了,注意这里在jdk1.7和jdk1.8中的区别有两个:
一、在jdk1.7中进行resize操作是要求size>threshold且该hashmap的每个位置都不能为null,也就是说每个位置都至少存在一个元素才会扩容,我曾经在jdk1.7时调试过以下代码发现put的数量超过12(即默认容量和负载因子时的阈值)时并不进行扩容

Map<Integer, Integer> map = new HashMap<>(16,1.2F);
        for(int i = 0; i<14 ;i++){
            map.put(i, i);
        }
        System.out.println(map.size());

但是在1.8中是正常扩容的,因为上面的源码并没有进行全部不为null的判断。二、从上面的源码显然可以看出当插入的位置已经有值时,变成链表或树的时候新插入的值总是在链表的结尾处,而在jdk1.7中正好相反,会在链表的头部进行插入

2、resize方法

    final Node<K,V>[] resize() {
        Node<K,V>[] oldTab = table;
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
        int oldThr = threshold;
        int newCap, newThr = 0;
        if (oldCap > 0) {
            //达到极限无法扩容只能将阈值调到极限
            if (oldCap >= MAXIMUM_CAPACITY) {
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // double threshold
        }
        //旧容量小于等于0但阈值大于0,将新容量设置为旧的阈值
        else if (oldThr > 0) // initial capacity was placed in threshold
            newCap = oldThr;
        //旧容量和阈值都小于0 ,使用默认值初始化链表
        else {               // zero initial threshold signifies using defaults
            newCap = DEFAULT_INITIAL_CAPACITY;
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        if (newThr == 0) {
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
        threshold = newThr;
        @SuppressWarnings({"rawtypes","unchecked"})
            Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        table = newTab;
        if (oldTab != null) {
            for (int j = 0; j < oldCap; ++j) {
                Node<K,V> e;
                if ((e = oldTab[j]) != null) {
                    oldTab[j] = null;
                    if (e.next == null)
                        newTab[e.hash & (newCap - 1)] = e;
                    else if (e instanceof TreeNode)
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    else { // preserve order
                        Node<K,V> loHead = null, loTail = null;
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        do {
                            next = e.next;
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }

由上可见进行resize操作是一件非常麻烦的事情,需要对每一个元素进行hash重计算,所以需要尽量避免进行resize操作,具体的避免方法为在创建hashmap之前对将要存放进入的键值对数量进行估计,设计好适合的初始容量和负载因子,避免发生resize操作。

HashMap的思考

在hashmap的源码中我一直找不到将hashmap进行缩容的操作,试想一下这种情况:我的hashmap很长时间都在我设计的容量和负载因子下很好的工作,只有一天来了大量的键值对需要存入,而且过了这天这些键值对就会被remove掉,而且很长一段时间之后才会再有这么多键值对进入,这个时候由于进行扩容了导致此hashmap有大量的空位置,而这些位置又是很长时间不会有值进入就会导致大量的空间被浪费。如果hashmap能够提供手动的缩容操作则可以避免这种情况。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容