数据结构?从HashMap的源码分析开始!

Hash(哈希)

  • 哈希即散列,散列表是为了解决高速存取而设计的,是一种典型的通过空间去换取时间的做法;为啥叫散列?其实我们可以把这个数据接口理解为一个线性的表,但是这个表当中的元素并不是紧密排列的,而是分散的,元素与元素之间可能存在间隙,所以这里就会造成空间上的浪费;散列表是依据Key-Value键值对去实现存取的,把Key通过一个映射函数映射到表中的一个位置,而这个映射函数就叫做散列函数
  • 对于一个散列表来说,基础是一个线性的表,例如一个数组,假设我们需要存取70个元素,那么在创建散列表的时候就会去申请大于70个长度的数据,假设申请了一个100个长度大小的数组,那当存储元素的时候我们就需要通过散列函数来计算出一个数据的下标index,而这个index必须尽可能的平均分布在这这个数组当中,这样才能保证元素之间的间隙较小,保证数组中的每一个元素只有单个元素的值而不是一个元素链表,但是散列函数计算出来的index不可避免的可能会存在重复的情况,也就是发生了碰撞,所以散列算法需要解决两个问题:一个是散列函数的合理性,尽可能然散列函数计算出来的index的碰撞几率较小,并且平均分布在数据表当中,第二个就是处理碰撞冲突的办法

Android中的HashMap

HashMap的数据结构

1024555-20161113235348670-746615111.png
  • 一个基础表,通常为数组
  • 基础表中的元素Entry是一个链表的实现,以此来实现散列表,如果发生了key碰撞,那么Entry链表可能有多个元素,如果没有发生key碰撞,那么Entry就只有它本身

HashMap的存储(put)

public V put(K key, V value) {
        if (table == EMPTY_TABLE) {
            inflateTable(threshold);
        }
        if (key == null)
            return putForNullKey(value);
        int hash = sun.misc.Hashing.singleWordWangJenkinsHash(key);
        int i = indexFor(hash, table.length);
        for (HashMapEntry<K,V> e = table[i]; e != null; e = e.next) {
            Object k;
            if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
                V oldValue = e.value;
                e.value = value;
                e.recordAccess(this);
                return oldValue;
            }
        }

        modCount++;
        addEntry(hash, key, value, i);
        return null;
    }

首先,先看下inflateTable方法,这个是初始化HashMap里面的线性表的空间:

private void inflateTable(int toSize) {
        // Find a power of 2 >= toSize
        int capacity = roundUpToPowerOf2(toSize);

        // Android-changed: Replace usage of Math.min() here because this method is
        // called from the <clinit> of runtime, at which point the native libraries
        // needed by Float.* might not be loaded.
        float thresholdFloat = capacity * loadFactor;
        if (thresholdFloat > MAXIMUM_CAPACITY + 1) {
            thresholdFloat = MAXIMUM_CAPACITY + 1;
        }

        threshold = (int) thresholdFloat;
        table = new HashMapEntry[capacity];
    }

capacit就是这个线性表的长度,而capacity是通过roundUpToPowerOf2方法计算而来:

private static int roundUpToPowerOf2(int number) {
        // assert number >= 0 : "number must be non-negative";
        int rounded = number >= MAXIMUM_CAPACITY
                ? MAXIMUM_CAPACITY
                : (rounded = Integer.highestOneBit(number)) != 0
                    ? (Integer.bitCount(number) > 1) ? rounded << 1 : rounded
                    : 1;

        return rounded;
    }

先说下roundUpToPowerOf2的计算结果:计算出大于或者等于距离number最近的2次幂的值。什么意思呢?直接举个例子:比如number为16,那么roundUpToPowerOf2结果就是16;number为17,roundUpToPowerOf2结果就是32;为什么呢?首先Integer.highestOneBit(number))这个作用就是计算出距离number最近的并且不大于number的2次幂的值,也就是说number如果为16,Integer.highestOneBit(number))结果为16;number为17,Integer.highestOneBit(number))结果为16,Integer.highestOneBit(number))当中是对number进行一个位操作去实现的,Integer.bitCount(number)的作用是求number的二进制表示的1的个数,对于一个正数来说Integer.bitCount(number) > 1和number > 1是一样的,因此roundUpToPowerOf2返回的结果一定是2的n次方,如:

number= 4 那么roundUpToPowerOf2的返回值就是2^2 = 4
number = 5 那么roundUpToPowerOf2的返回值就是2^3 = 8
为什么要是2的n次方呢?

Android中的HashMap的index计算方式如下,h为key的hash值,length为HashMap的基础链表的长度,就是上面计算出来的capacit(2的n次方):

static int indexFor(int h, int length) {
        // assert Integer.bitCount(length) == 1 : "length must be a non-zero power of 2";
        return h & (length-1);
    }

所以length - 1就等于2^n - 1,你会发现2^n - 1的结果的二进制表示每一位都是1,比如(24-1)2=1111,这时候把2^n - 1和h做与操作,得出的结果一定会小于或者等于2^n - 1,也就是说得出的index一定不会大于基础链表的长度,所以数组下标不会产生越界;另外一点是当数组长度为2的n次幂的时候,不同的key算得得index相同的几率较小,index分布均匀,因为和h进行与操作的时候,低位与完结果都是1,高位与的结果根据hash的高位是0或者是1来定,如果是0那么这位与完的结果为0,如果为1那么这位与完的结果为1,也就是说h & 2^n -1的结果取决于h(key的hash值),只有相同的hash值才会得出相同的index,而不会由于数据长度的改变影响到index的计算,那么只要根据key计算出来的hash值足够合理就能保证index是比较均匀分布的,所以我觉得indexFor这个方法里面的实现h & (length-1)的目的就是规避基础表的长度对于index计算的影响,让index的计算只取决于hash值,只要index计算结果分布均匀,那么基础表的碰撞冲突就会减少,基础表中item存取的元素也会分布均匀,那么存取速度就提高了,而不用遍历链表,下面继续分析HashMap的put实现原理,通过indexFor计算出HashMap中基础表的数组下标后可直接取获取表中的item信息,然后对比item的key,value以及hash(key),如果都相等,那么就进行替换,否则就再向基础表中调价一个item,代码如下:

for (HashMapEntry<K,V> e = table[i]; e != null; e = e.next) {
            Object k;
            if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
                V oldValue = e.value;
                e.value = value;
                e.recordAccess(this);
                return oldValue;
            }
        }

在put方法中,添加item之前执行了modCount++,这个是记录基础表被修改(增删改)的次数,在多线程操作HashMap的时候做验证用的,后面再提,添加item的方法:

void addEntry(int hash, K key, V value, int bucketIndex) {
        if ((size >= threshold) && (null != table[bucketIndex])) {
            resize(2 * table.length);
            hash = (null != key) ? sun.misc.Hashing.singleWordWangJenkinsHash(key) : 0;
            bucketIndex = indexFor(hash, table.length);
        }

        createEntry(hash, key, value, bucketIndex);
    }

void createEntry(int hash, K key, V value, int bucketIndex) {
        HashMapEntry<K,V> e = table[bucketIndex];
        table[bucketIndex] = new HashMapEntry<>(hash, key, value, e);
        size++;
    }

HashMap的扩容(resize)

void addEntry(int hash, K key, V value, int bucketIndex) {
        if ((size >= threshold) && (null != table[bucketIndex])) {
            resize(2 * table.length);
            hash = (null != key) ? sun.misc.Hashing.singleWordWangJenkinsHash(key) : 0;
            bucketIndex = indexFor(hash, table.length);
        }

        createEntry(hash, key, value, bucketIndex);
    }
void resize(int newCapacity) {
        HashMapEntry[] oldTable = table;
        int oldCapacity = oldTable.length;
        if (oldCapacity == MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return;
        }

        HashMapEntry[] newTable = new HashMapEntry[newCapacity];
        transfer(newTable);
        table = newTable;
        threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1);
    }
void transfer(HashMapEntry[] newTable) {
        int newCapacity = newTable.length;
        for (HashMapEntry<K,V> e : table) {
            while(null != e) {
                HashMapEntry<K,V> next = e.next;
                int i = indexFor(e.hash, newCapacity);
                e.next = newTable[i];
                newTable[i] = e;
                e = next;
            }
        }
    }

当size >= threshold(threshold为整个基础表size的0.75,在inflateTable方法中有定义):

private void inflateTable(int toSize) {
        // Find a power of 2 >= toSize
        int capacity = roundUpToPowerOf2(toSize);

        // Android-changed: Replace usage of Math.min() here because this method is
        // called from the <clinit> of runtime, at which point the native libraries
        // needed by Float.* might not be loaded.
        float thresholdFloat = capacity * loadFactor;
        if (thresholdFloat > MAXIMUM_CAPACITY + 1) {
            thresholdFloat = MAXIMUM_CAPACITY + 1;
        }

        threshold = (int) thresholdFloat;
        table = new HashMapEntry[capacity];
    }

loadFactor为0.75,所以在put的时候发现当前已经put的item个数已经达到了整个基础表空间的0.75,HashMap就会进行扩容,就是扩大基础表的大小,扩大为原来的两倍大小,然后把现有的表中的值一个个的复制到新表中,再用新表去覆盖旧表,就完成了基础表的扩容操作,所以这里我们来计算下put的复杂度:

  • 如果不发生key碰撞,那么就直接拿计算出来的index去put,完成,复杂度为O(1)
  • 如果发生了key碰撞,那么就要去遍历链表,假设链表的长度为n,那么最差的情况就是遍历到最后一个元素才发现重复,那么此时就替换掉最后一个元素,这时候最差的复杂度就为O(m),其中m为遍历链表的次数,m <= n

综上:HashMap的put操作的复杂度为O(m),m为发现相同元素的时候遍历链表的次数,其中1 <= m <= n,n为聊表的长度,所以如果HashMap的碰撞越少,那么n就越接近1,此时put的复杂度就越低,基本就是O(1),所以HashMap可以做到高速存储

HashMap的元素获取(get)

public V get(Object key) {
        if (key == null)
            return getForNullKey();
        Entry<K,V> entry = getEntry(key);

        return null == entry ? null : entry.getValue();
    }
final Entry<K,V> getEntry(Object key) {
        if (size == 0) {
            return null;
        }

        int hash = (key == null) ? 0 : sun.misc.Hashing.singleWordWangJenkinsHash(key);
        for (HashMapEntry<K,V> e = table[indexFor(hash, table.length)];
             e != null;
             e = e.next) {
            Object k;
            if (e.hash == hash &&
                ((k = e.key) == key || (key != null && key.equals(k))))
                return e;
        }
        return null;
    }

熟悉了put操作,那么get操作就是反过来的,通过key计算出hash,在通过indexFor计算出相应的数组下标index,然后从基础表中取出这个index中的元素,对比元素中的信息就可以了,get的复杂度:O(m),其中1 <= m <= n,所以put和get的复杂度是一样的,最坏的情况就是所有key算出来的hash值都一样,那么此时基础表中只有1个元素,而这个元素将会是一个很长的链表,此时HashMap的存取就退化为这个链表的遍历操作

HashMap的线程安全性(Fail-Fast机制,ConcurrentModificationException)

  • HashMap的存储等操作并不是线程安全的,ConcurrentModificationException这个会在多线程中对HashMap遍历操作的同时进行了增删改才会出现的,所以来看下HashMap的迭代器的实现:
private abstract class HashIterator<E> implements Iterator<E> {
        HashMapEntry<K,V> next;        // next entry to return
        int expectedModCount;   // For fast-fail
        int index;              // current slot
        HashMapEntry<K,V> current;     // current entry

        HashIterator() {
            expectedModCount = modCount;
            if (size > 0) { // advance to first entry
                HashMapEntry[] t = table;
                while (index < t.length && (next = t[index++]) == null)
                    ;
            }
        }

        public final boolean hasNext() {
            return next != null;
        }

        final Entry<K,V> nextEntry() {
            if (modCount != expectedModCount)
                throw new ConcurrentModificationException();
            HashMapEntry<K,V> e = next;
            if (e == null)
                throw new NoSuchElementException();

            if ((next = e.next) == null) {
                HashMapEntry[] t = table;
                while (index < t.length && (next = t[index++]) == null)
                    ;
            }
            current = e;
            return e;
        }

        public void remove() {
            if (current == null)
                throw new IllegalStateException();
            if (modCount != expectedModCount)
                throw new ConcurrentModificationException();
            Object k = current.key;
            current = null;
            HashMap.this.removeEntryForKey(k);
            expectedModCount = modCount;
        }
    }

这里面就涉及到了modCount,这个就是记录当前基础表的修改次数,无论是增,删,改,只要操作成功都会进行增加1,expectedModCount是在迭代器创建的时候会把创建的时候的modCount赋值给它,从字面意思理解就是预期的修改次数,当expectedModCount != modCount的时候就会抛出ConcurrentModificationException,那么什么时候才会发生这种情况呢?多线程,当线程一put完一个item之后,modCount++,然后线程一开始通过迭代器去遍历HashMap,在还没遍历结束的时候线程二又去put或者remove了HashMap找那个的item,此时modCount++,这时候就会导致线程一在遍历的时候expectedModCount和modCount不一致,也就是说HashMap已经被修改过了,因此会抛出ConcurrentModificationException,在HashMap中实现了三种迭代器,键迭代器:KeyIterator,值迭代器:ValueIterator,键值对迭代器:EntryIterator,那么如何保证HashMap的线程安全性呢?

  • 可以用Hashtable,Hashtable是方法级别的线程安全,对于put和remove,get等方法都有加了synchronized修饰
  • Collections.synchronizedMap将HashMap包装起来
private static class SynchronizedMap<K,V>
        implements Map<K,V>, Serializable {
        private static final long serialVersionUID = 1978198479659022715L;

        private final Map<K,V> m;     // Backing Map
        final Object      mutex;        // Object on which to synchronize

        SynchronizedMap(Map<K,V> m) {
            this.m = Objects.requireNonNull(m);
            mutex = this;
        }

        SynchronizedMap(Map<K,V> m, Object mutex) {
            this.m = m;
            this.mutex = mutex;
        }

        public int size() {
            synchronized (mutex) {return m.size();}
        }
        public boolean isEmpty() {
            synchronized (mutex) {return m.isEmpty();}
        }
        public boolean containsKey(Object key) {
            synchronized (mutex) {return m.containsKey(key);}
        }
        public boolean containsValue(Object value) {
            synchronized (mutex) {return m.containsValue(value);}
        }
        public V get(Object key) {
            synchronized (mutex) {return m.get(key);}
        }

        public V put(K key, V value) {
            synchronized (mutex) {return m.put(key, value);}
        }
        public V remove(Object key) {
            synchronized (mutex) {return m.remove(key);}
        }
        public void putAll(Map<? extends K, ? extends V> map) {
            synchronized (mutex) {m.putAll(map);}
        }
        public void clear() {
            synchronized (mutex) {m.clear();}
        }

        private transient Set<K> keySet = null;
        private transient Set<Map.Entry<K,V>> entrySet = null;
        private transient Collection<V> values = null;

        public Set<K> keySet() {
            synchronized (mutex) {
                if (keySet==null)
                    keySet = new SynchronizedSet<>(m.keySet(), mutex);
                return keySet;
            }
        }

        public Set<Map.Entry<K,V>> entrySet() {
            synchronized (mutex) {
                if (entrySet==null)
                    entrySet = new SynchronizedSet<>(m.entrySet(), mutex);
                return entrySet;
            }
        }

        public Collection<V> values() {
            synchronized (mutex) {
                if (values==null)
                    values = new SynchronizedCollection<>(m.values(), mutex);
                return values;
            }
        }

        public boolean equals(Object o) {
            if (this == o)
                return true;
            synchronized (mutex) {return m.equals(o);}
        }
        public int hashCode() {
            synchronized (mutex) {return m.hashCode();}
        }
        public String toString() {
            synchronized (mutex) {return m.toString();}
        }

        // Override default methods in Map
        @Override
        public V getOrDefault(Object k, V defaultValue) {
            synchronized (mutex) {return m.getOrDefault(k, defaultValue);}
        }
        @Override
        public void forEach(BiConsumer<? super K, ? super V> action) {
            synchronized (mutex) {m.forEach(action);}
        }
        @Override
        public void replaceAll(BiFunction<? super K, ? super V, ? extends V> function) {
            synchronized (mutex) {m.replaceAll(function);}
        }
        @Override
        public V putIfAbsent(K key, V value) {
            synchronized (mutex) {return m.putIfAbsent(key, value);}
        }
        @Override
        public boolean remove(Object key, Object value) {
            synchronized (mutex) {return m.remove(key, value);}
        }
        @Override
        public boolean replace(K key, V oldValue, V newValue) {
            synchronized (mutex) {return m.replace(key, oldValue, newValue);}
        }
        @Override
        public V replace(K key, V value) {
            synchronized (mutex) {return m.replace(key, value);}
        }
        @Override
        public V computeIfAbsent(K key,
                                 Function<? super K, ? extends V> mappingFunction) {
            synchronized (mutex) {return m.computeIfAbsent(key, mappingFunction);}
        }
        @Override
        public V computeIfPresent(K key,
                                  BiFunction<? super K, ? super V, ? extends V> remappingFunction) {
            synchronized (mutex) {return m.computeIfPresent(key, remappingFunction);}
        }
        @Override
        public V compute(K key,
                         BiFunction<? super K, ? super V, ? extends V> remappingFunction) {
            synchronized (mutex) {return m.compute(key, remappingFunction);}
        }
        @Override
        public V merge(K key, V value,
                       BiFunction<? super V, ? super V, ? extends V> remappingFunction) {
            synchronized (mutex) {return m.merge(key, value, remappingFunction);}
        }

        private void writeObject(ObjectOutputStream s) throws IOException {
            synchronized (mutex) {s.defaultWriteObject();}
        }
    }

这个其实跟Hashtable类似,就是对方法级别的操作进行synchronized修饰以达到方法级的操作是线程安全的

  • ConcurrentHashMap,这个是采用分段锁的概念来实现小粒度的多线程操在安全性,和Hashtable比起来,ConcurrentHashMap效率更好,后面再去具体分析ConcurrentHashMap的实现原理
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,324评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,303评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,192评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,555评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,569评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,566评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,927评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,583评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,827评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,590评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,669评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,365评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,941评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,928评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,159评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,880评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,399评论 2 342

推荐阅读更多精彩内容