资讯专栏INFORMATION COLUMN

HashMap实现原理和源码详细分析

simpleapples / 2465人阅读

摘要:实现原理和源码详细分析本博客基于学习要点知道的数据结构了解中的散列算法知道中的代码实现的哈希冲突是什么怎么处理的知道的扩容机制什么是基于哈希表的接口实现,是以存储形式存在,的实现不是同步的,这意味着它不是线程安全的。

HashMap实现原理和源码详细分析

ps:本博客基于Jdk1.8

学习要点:
1、知道HashMap的数据结构
2、了解HashMap中的散列算法
3、知道HashMap中put、remove、get的代码实现
4、HashMap的哈希冲突是什么?怎么处理的?
5、知道HashMap的扩容机制

1、什么是HashMap?

HashMap 基于哈希表的 Map 接口实现,是以 key-value 存储形式存在 ,HashMap 的实现不是同步的,这意味着它不是线程安全的。它的 key、value 都可以为 null,此外,HashMap 中的映射不是有序的。

2、HashMap的特性

  • Hash存储无序的
  • key和value都可以存储null值,但是key只能存唯一的一个null值
  • jdk8之前的数据结构是数组+链表,Jdk8之后变成数组+链表+红黑树
  • 阀值大于8并且数组长度大于64才会转为红黑树

3、HashMap的数据结构

JDK7的情况,是数组加链接,hash冲突时候,就转换为链表:

jdk8的情况,jdk8加上了红黑树,链表的数量大于8而且数组长度大于64之后,就转换为红黑树,红黑树节点小于6之后,就又转换为链表:

翻下HashMap源码,对应的节点信息:

static class Node<K,V> implements Map.Entry<K,V> {        // hashCode        final int hash;        final K key;        V value;        // 链表的next指针就不为null        Node<K,V> next;        Node(int hash, K key, V value, Node<K,V> next) {            this.hash = hash;            this.key = key;            this.value = value;            this.next = next;        }        // ...}        

4、HashMap初始化操作

4.1、成员变量

public class HashMap<K,V> extends AbstractMap<K,V>    implements Map<K,V>, Cloneable, Serializable {	/**     * 序列号版本号     */    private static final long serialVersionUID = 362498820763181265L;   /**     * 初始化容量,为16=2的4次幂     */    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16   /**     * 最大容量,为2的30次幂     */    static final int MAXIMUM_CAPACITY = 1 << 30;    /**     * 默认的负载因子,默认值是0.75     */    static final float DEFAULT_LOAD_FACTOR = 0.75f;    /**     * 链表节点树超过8就转为为红黑树     */    static final int TREEIFY_THRESHOLD = 8;        /**     * 红黑树节点少于6就再转换回链表     */    static final int UNTREEIFY_THRESHOLD = 6;        /**     * 桶中结构转化为红黑树对应的数组长度最小的值     */    static final int MIN_TREEIFY_CAPACITY = 64;        // ...		 /**     * HashMap存储元素的数组     */	transient Node<K,V>[] table;    /**     * 用来存放缓存     */    transient Set<Map.Entry<K,V>> entrySet;    /**     * HashMap存放元素的个数     */    transient int size;    /**     * 用来记录HashMap的修改次数     */    transient int modCount;    /**     * 用来调整大小下一个容量的值(容量*负载因子)     */    int threshold;    /**     * Hash表的负载因子     */    final float loadFactor;}    

4.2、 构造方法

public HashMap(int initialCapacity, float loadFactor) {    // 初始容量不能小于0,小于0直接抛出IllegalArgumentException    if (initialCapacity < 0)        throw new IllegalArgumentException("Illegal initial capacity: " +                                           initialCapacity);     // 初始容量大于最大容量的时候,取最大容量作为初始容量    if (initialCapacity > MAXIMUM_CAPACITY)        initialCapacity = MAXIMUM_CAPACITY;     // 负载因子不能小于0,而且要是数值类型,isNan:true,表示就是非数值类型    if (loadFactor <= 0 || Float.isNaN(loadFactor))        throw new IllegalArgumentException("Illegal load factor: " +                                           loadFactor);    // 将指定的负载因子赋值给全局变量    this.loadFactor = loadFactor;    // threshold  = (容量) * (负载因子)    this.threshold = tableSizeFor(initialCapacity);}public HashMap(int initialCapacity) {     // 初始化容量和默认负载因子    this(initialCapacity, DEFAULT_LOAD_FACTOR);}public HashMap() {    // 默认的负载因子为0.75	this.loadFactor = DEFAULT_LOAD_FACTOR;}

然后,我们知道HashMap的默认容量是16,然后是在哪里赋值的?从上面这个代码就可以知道this.threshold = tableSizeFor(initialCapacity);

static final int tableSizeFor(int cap) {    int n = cap - 1;    n |= n >>> 1;    n |= n >>> 2;    n |= n >>> 4;    n |= n >>> 8;    n |= n >>> 16;    return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;}

这里涉及到计算机基本知识的,右移运算和或运算,下面给出图例:通过比较麻烦的计算得出n为16

往代码里翻,还找到下面这个构造方法public HashMap(Map m):这个构造方法是用于构造一个映射关系与指定 Map 相同的新 HashMap:

public HashMap(Map<? extends K, ? extends V> m) {    this.loadFactor = DEFAULT_LOAD_FACTOR;     putMapEntries(m, false); }

看一下putMapEntries这个方法:

final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {    // 传入的集合长度    int s = m.size();    if (s > 0) {     	// 判断table是否已经初始化处理        if (table == null) { // pre-size 未初始化的情况            // 加上1.0F的目的是对小数向上取整,保证最大容量,减少resize的调用次数            float ft = ((float)s / loadFactor) + 1.0F;            int t = ((ft < (float)MAXIMUM_CAPACITY) ?                     (int)ft : MAXIMUM_CAPACITY);            // 计算出来的t大于HashMap的阀值,进行tableSizeFor            if (t > threshold)                threshold = tableSizeFor(t);        }        else if (s > threshold) // 已经初始化的情况,进行扩容resize            resize();         // 遍历,将map中的所有元素都添加到hashMap中        for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {            K key = e.getKey();            V value = e.getValue();            putVal(hash(key), key, value, false, evict);        }    }}

5、Jdk8中HashMap的算法

5.1、HashMap中散列算法

在HashMap的java.util.HashMap#hash,这个方法中有特定的用于计算哈希值的方法:这个方法的作用?这个方法就是用于hashMap当put对应的key之后,计算特定的hashCode,然后再(n-1)&hash计算对应的数组table的下标,这个后面跟一下HashMap源码才比较清楚:

static final int hash(Object key) {    int h;    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);}

看起来代码只有两行,然后其实蕴含了一种散列算法的思想,下面简单分析一下:这里先将代码进行拆分,看起来清晰点:

static final int hash(Object key) {    // 传入的key为null,返回默认值0    if (key == null) return 0;    // 计算哈希code    int h = key.hashCode();    // 将计算出来的hashCode右移16位,相当于乘于(1/2)的16次方    int t = h >>> 16;    // 将两个值做异或运算然后返回    return h ^ t;}

其实里面要做的事情是先计算出hashCode,然后将hashCode右移16位,然后这两个数再做异或运算。看起来是这么一回事,然后作者的意图是什么?首先既然是散列算法,散列算法的目的就是为了让数据均匀分布


从图可以看出,使用异或运算,出现0和1的概率是相等的,所以这就是为什么要使用异或运算的原因,散列算法的本质目的就是为了让数据均匀分布,使用异或运算得出的哈希值因为比较均匀散列分布,所以出现哈希冲突的概率就小很多

补充:

  • 与运算:两个数相应的位数字都是1,与运算后是1,其余情况是0;
  • 或运算:两个数相应的位数字只要有1个是1,或运算后是1,否则是0;
  • 异或运算:两个数相应的位数字相同,结果是1,否则是0;

然后为什么再进行右移16位?我们知道,int类型最大的数值是2的32次方,然后可以分为高16位加上低16位,右移16位就是使数值变小了,“左大右小”,这个是位移运算的准则

5.2、什么是HashMap中哈希冲突?

哈希冲突也可以称之为哈希碰撞,理论上的哈希冲突是指计算出来的哈希值一样,导致冲突了,不过在HashMap中的哈希冲突具体是指(n-1)&hash,这个值是hashMap里数组的下标。Jdk8之前的处理方法是通过链表处理,只要hash冲突了,就会将节点添加到链表尾部;jdk8之后的做法是通过链表+红黑树的方法,最开始哈希冲突了,也是用链表,然后链表节点达到8个,数组长度超过64的情况,转成红黑树,这个可以在源码里找到答案

翻下源码,HashMap#putVal,里面的逻辑,先校验计算出来的,数组tab的下标,i=(n-1)&hash是否冲突了,不冲突就新增节点,冲突的情况,转链表或者红黑树

if ((p = tab[i = (n - 1) & hash]) == null)            tab[i] = newNode(hash, key, value, null);

6、Jdk8中HashMap的put操作

  • put方法的核心流程
  1. 根据hashcode计算数组的下标
  2. 对应下标数组为空的情况,新增节点
  3. 否则就是哈希冲突了,如果桶使用链表节点,就新增到链表节点尾部,使用了红黑树就新增到红黑树里

上面是核心的流程,忽略了存在重复的键,则为该键替换新值 value, size 大于阈值 threshold,则进行扩容等等这些情况

ok,还是跟一下put源码:

public V put(K key, V value) {    return putVal(hash(key), key, value, false, true);}final V putVal(int hash, K key, V value, boolean onlyIfAbsent,                   boolean evict) {    Node<K,V>[] tab; Node<K,V> p; int n, i;    // 第1次新增,初始数据resize    if ((tab = table) == null || (n = tab.length) == 0)        n = (tab = resize()).length;    // 判断是否出现hash冲突    if ((p = tab[i = (n - 1) & hash]) == null)        // hash不冲突,新增节点        tab[i] = newNode(hash, key, value, null);    else { // 哈希冲突的情况,使用链表或者红黑树处理        Node<K,V> e; K k;        // 存在重复的键的情况,key和hash都相等        if (p.hash == hash &&            ((k = p.key) == key || (key != null && key.equals(k))))            // 将旧的节点对象赋值给新的e            e = p;        else if (p instanceof TreeNode) // 使用了红黑树节点              // 将节点放到红黑树中            e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);        else { // 链表的情况             // 无限循环            for (int binCount = 0; ; ++binCount) {                // 一直遍历,找到尾节点                if ((e = p.next) == null) {                    // 将新节点添加到尾部                    p.next = newNode(hash, key, value, null);                    // 节点数量大于8,转为红黑树                    if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st                        treeifyBin(tab, hash);                    // 跳出循环                    break;                }                // 也是为了避免hashCode和key一样的情况                if (e.hash == hash &&                    ((k = e.key) == key || (key != null && key.equals(k))))                    break;                // 重新赋值,用于链表的遍历                p = e;            }        }        // 桶中找到的key、hash相等的情况,也就是找到了重复的键,要使用新值替换旧值        if (e != null) { // existing mapping for key            // 记录e的值            V oldValue = e.value;            if (!onlyIfAbsent || oldValue == null)                // 用新值替换旧值                e.value = value;            // 访问后回调            afterNodeAccess(e);            // 返回旧值            return oldValue;        }    }    // 记录修改次数    ++modCount;    // size大于threshole,进行扩容    if (++size > threshold)        resize();     // 回调方法    afterNodeInsertion(evict);    return null;}

然后是怎么转换为红黑树的?红黑树的知识相对比较复杂,所以比较详细的可以参考我之前的博客Java手写实现红黑树

final void treeifyBin(Node<K,V>[] tab, int hash) {    int n, index; Node<K,V> e;    // MIN_TREEIFY_CAPACITY值为64,也就是说数组长度小于64是不会真正转红黑树的    if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)    	// 扩容方法        resize();     // 转红黑树操作    else if ((e = tab[index = (n - 1) & hash]) != null) {        // 红黑树的头节点hd和尾节点t1        TreeNode<K,V> hd = null, tl = null;        do {            // 构建树节点            TreeNode<K,V> p = replacementTreeNode(e, null);            if (tl == null)                // 新节点p赋值给红黑树的头节点                hd = p;            else {                // 新节点的前节点就是原来的尾节点t1                p.prev = tl;                // 尾部节点t1的next节点就是新节点                tl.next = p;            }            tl = p;        } while ((e = e.next) != null);        // 让数组的节点执行新建的树节点,之后这个节点就变成TreeNode        if ((tab[index] = hd) != null)            hd.treeify(tab);    }}

7、HashMap的扩容机制

这个知识点是HashMap中的一个重点之一,也是一个比较难的问题

7.1、什么时候需要扩容?

当hashMap中元素个数超过thresholdthreshold为数组长度乘以负载因子loadFactor,loadFactor默认是0.75f

7.2、什么是HashMap的扩容?

resize这个方法是HashMap的扩容方法,是比较耗时的。HashMap在扩容时,都是翻两倍,比如16的容量扩大到32,。HashMap进行扩容的方法是比较巧妙的,扩容后,与原来的下标(n-1)&hash相对,其实只是多了1bit位。扩容后节点要么是在原来位置,听起来好像很懵,所以还是认真看下面的分析:

下面给出例子,比如从容量为16扩容到32时,画图表示:

进行扩容,扩大到原来的两倍:

到这一步,下标(n-1) & hash,扩容后的数据10101和原来的00101相比,其实就是多了1bit,10101是十进制的21,而21=5+16,就是“原位置+旧容量”,还有另外一种情况是保持为0的情况,这种情况是不改变位置的

下面给出一份表格,数据如图:

容量为16的情况

有低位的两个指针loHead、lloTail,高位的两个指针hiHead、hiTail

扩容到32之后,再两个链表加到对应位置。分别有两种情况,保持原来位置的和“原位置+旧容量”这个位置

所以,扩容的过程,对应的节点位置改变是这样的过程:

7.3、resize的源码实现

经过上面比较详细的分析,这个实现逻辑是可以在代码里找到对应的,ok,跟一下对应的源码:

final Node<K,V>[] resize() {   // 得到当前的节点数组    Node<K,V>[] oldTab = table;    // 数组的长度    int oldCap = (oldTab == null) ? 0 : oldTab.length;    int oldThr = threshold;    int newCap, newThr = 0;    // 计算扩容后的大小    if (oldCap > 0) {        if (oldCap >= MAXIMUM_CAPACITY) { // 超过最大容量 即 1 <<< 30             // 超过最大容量就不扩充了,修改阀值为最大容量            threshold = Integer.MAX_VALUE;            return oldTab;        }        // 没超过的情况,扩大为原来的两倍        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&                 oldCap >= DEFAULT_INITIAL_CAPACITY)            newThr = oldThr << 1; // double threshold    }    else if (oldThr &g           
               
                                           
                       
                 

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/119252.html

相关文章

  • HashMap 源码详细分析(JDK1.8)

    摘要:则使用了拉链式的散列算法,并在中引入了红黑树优化过长的链表。如果大家对红黑树感兴趣,可以阅读我的另一篇文章红黑树详细分析。构造方法构造方法分析的构造方法不多,只有四个。 1.概述 本篇文章我们来聊聊大家日常开发中常用的一个集合类 - HashMap。HashMap 最早出现在 JDK 1.2中,底层基于散列算法实现。HashMap 允许 null 键和 null 值,在计算哈键的哈希值...

    monw3c 评论0 收藏0
  • java源码

    摘要:集合源码解析回归基础,集合源码解析系列,持续更新和源码分析与是两个常用的操作字符串的类。这里我们从源码看下不同状态都是怎么处理的。 Java 集合深入理解:ArrayList 回归基础,Java 集合深入理解系列,持续更新~ JVM 源码分析之 System.currentTimeMillis 及 nanoTime 原理详解 JVM 源码分析之 System.currentTimeMi...

    Freeman 评论0 收藏0
  • LinkedHashMap 源码详细分析(JDK1.8)

    摘要:关于的源码分析,本文并不打算展开讲了。大家可以参考我之前的一篇文章源码详细分析。在删除节点时,父类的删除逻辑并不会修复所维护的双向链表,这不是它的职责。在节分析链表建立过程时,我故意忽略了部分源码分析。 1. 概述 LinkedHashMap 继承自 HashMap,在 HashMap 基础上,通过维护一条双向链表,解决了 HashMap 不能随时保持遍历顺序和插入顺序一致的问题。除此...

    Harriet666 评论0 收藏0
  • hashMap源码分析以及原理

    摘要:举个例子,比如我们要在哈希表中执行插入操作查找操作同理,先通过哈希函数计算出实际存储地址,然后从数组中对应地址取出即可。这也是数组长度设计为必须为的次幂的原因。 前言 hashMap在平时工作和面试中,常常使用到和问到,本文将从一下几个方面进行记录:   什么是哈希表 HashMap实现原理 为何HashMap的数组长度一定是2的次幂? 1. 什么是哈希表 在讨论哈希表之前,我们先...

    liuyix 评论0 收藏0
  • Java开发

    摘要:大多数待遇丰厚的开发职位都要求开发者精通多线程技术并且有丰富的程序开发调试优化经验,所以线程相关的问题在面试中经常会被提到。将对象编码为字节流称之为序列化,反之将字节流重建成对象称之为反序列化。 JVM 内存溢出实例 - 实战 JVM(二) 介绍 JVM 内存溢出产生情况分析 Java - 注解详解 详细介绍 Java 注解的使用,有利于学习编译时注解 Java 程序员快速上手 Kot...

    Lucky_Boy 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<