Java-HashMap和ConcurrentHashMap的区别
- 一、关键区别
- 1.数据结构
- 2.线程安全
- 3.性能
- 4.扩容机制
- 二、源码简析
- 1.并发控制机制
- 2.数据结构转换:链表转红黑树
- 3.扩容机制
- 触发hashMap和concurentHashMap扩容机制的条件
- 三、putIfAbsent方法computeIfAbsent方法区别
在 Java 8中, HashMap和ConcurrentHashMap都经历了一些重要的改进,使得它们 在性能和线程安全性方面有了 显著的差异。
一、关键区别
1.数据结构
-
HashMap (JDK 8):
1.8之前的
1.8后
数组 + 链表 + 红黑树
:Java 8中的HashMap引入了红黑树来优化链表过长的情况。当链表长度超过8时(默认设置),链表会被转换成红黑树,以减少查找时间复杂度,从O(n)降低到O(log n)。这一改变主要目的是提高在哈希冲突较多情况下的性能。 -
ConcurrentHashMap (JDK 8):
1.7中
1.8中
数组 + 链表 + 红黑树
:类似于HashMap,ConcurrentHashMap在Java 8中也引入了红黑树来优化性能。但是,ConcurrentHashMap的内部结构更为复杂,它不再使用分段锁(Segment),而是采用CAS(Compare and Swap)操作加上一些其他原子操作和少量的synchronized关键字来实现更细粒度的锁,这大大提升了并发性能。
2.线程安全
- HashMap: 不是线程安全的。在多线程环境下,如果没有外部同步,直接使用HashMap可能会导致数据不一致的问题。
- ConcurrentHashMap: 是线程安全的。它通过使用CAS算法和synchronized块(只在最小必要时锁定),实现了对部分桶的加锁,而不是像早期版本那样对整个容器加锁,从而在高并发环境下提供了更好的性能。
3.性能
- HashMap: 单线程环境下性能优秀,但在多线程环境下没有提供安全保障,可能导致数据损坏。
- ConcurrentHashMap: 在多线程环境下性能优越,因为它能更好地控制锁的范围,减少线程之间的竞争,同时在单线程访问时也能保持良好的性能。
4.扩容机制
- HashMap: 在Java 8中,HashMap的扩容仍然是一个相对重量级的操作,虽然它在插入新元素时采用了更高效的尾插法来避免循环链表问题,但扩容时仍需重新分配桶并复制元素。
- ConcurrentHashMap: 其扩容过程更加精细且并发友好,通过多个线程同时参与扩容操作,进一步提高了效率。
二、源码简析
1.并发控制机制
HashMap (简单无锁,非线程安全)
// HashMap的get方法非常简单,直接访问指定位置的桶
V get(Object key) {Node<K,V> e; // 用于存放找到的节点return (e = getNode(hash(key), key)) == null ? null : e.value;
}// 内部查找节点的方法
final Node<K,V> getNode(int hash, Object key) {Node<K,V>[] tab; Node<K,V> first, e; int n; K k;if ((tab = table) != null && (n = tab.length) > 0 &&(first = tab[(n - 1) & hash]) != null) {// 首先检查第一个节点是否即为目标节点if (first.hash == hash && ((k = first.key) == key || (key != null && key.equals(k))))return first;// 如果第一个节点不是,则沿着链表或树结构继续查找if ((e = first.next) != null) {// ...遍历逻辑省略,查找匹配的节点...}}return null;
}
注: HashMap的get操作没有内置的线程安全措施,任何并发修改都可能引起不可预测的行为。它假设在外部进行了同步处理,或在单线程环境下使用。
ConcurrentHashMap (高级并发控制)
/*** 返回与指定键关联的值,如果此映射中不存在该键的映射,则返回{@code null}。** @param key 要查询的键* @return 与键关联的值,如果没有则为{@code null}*/public V get(Object key) {Node<K,V>[] tab; // 哈希桶数组引用Node<K,V> e, p; // 当前节点与辅助节点引用int n, eh; // 哈希桶大小,当前节点哈希值K ek; // 临时存储键引用// 计算散列值并应用扰动函数int h = spread(key.hashCode());// 检查哈希表是否存在且非空,以及桶内是否有节点if ((tab = table) != null && (n = tab.length) > 0 &&(e = tabAt(tab, (n - 1) & h)) != null) {// 检查桶的第一个节点是否匹配if ((eh = e.hash) == h) {ek = e.key; // 保存键引用以供比较if ((ek == key) || (ek != null && key.equals(ek))) // 键相等return e.val; // 返回值}// 特殊处理:eh < 0 表示可能遇到了ForwardingNode(正在进行resize或其它结构调整)else if (eh < 0) return (p = e.find(h, key)) != null ? p.val : null; // 在ForwardingNode中查找键// 未在首节点找到,遍历链表或树查找while ((e = e.next) != null) {if (e.hash == h && ((ek = e.key) == key || (ek != null && key.equals(ek)))) {return e.val; // 找到匹配的键,返回其值}}}// 未找到匹配项,返回nullreturn null;}
通过无锁读取提高并发读性能。它首先计算键的哈希值并定位到桶,然后直接访问桶的第一个节点,无需加锁。如果第一个节点匹配,则直接返回其值。否则,它会遍历桶内的链表或树结构,查找匹配的节点。这种方法在高并发环境下能够显著提升读取性能,因为读操作不需要等待写锁,减少了线程间的竞争。
/*** 将指定的键与值关联到此映射表中。* 键和值都不能为null。** <p>可以通过使用与原始键相等的键调用{@code get}方法来检索该值。** @param key 要与此指定值关联的键* @param value 要与指定键关联的值* @return 与{@code key}先前关联的值,如果没有映射则为{@code null}* @throws NullPointerException 如果指定的键或值为null*/public V put(K key, V value) {return putVal(key, value, false);}/*** 实现put和putIfAbsent方法的内部逻辑。* * @param key 要插入的键* @param value 要插入的值* @param onlyIfAbsent 如果为true且键已存在,则不更新值* @return 键的旧值,如果没有则为null*/final V putVal(K key, V value, boolean onlyIfAbsent) {// 检查键和值是否为nullif (key == null || value == null) throw new NullPointerException();// 计算键的哈希值并应用扰动函数int hash = spread(key.hashCode());// 初始化重试计数int binCount = 0;// 主循环处理桶的初始化、迁移、插入等for (Node<K,V>[] tab = table;;) {Node<K,V> f; // 指向当前桶的头节点int n, i, fh; // 分别表示桶的长度、桶的索引、头节点的哈希值// 检查表是否未初始化或为空,如果是则进行初始化if (tab == null || (n = tab.length) == 0)tab = initTable();// 计算桶索引并尝试无锁插入到空桶else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {// 使用CAS尝试将新节点放入空桶if (casTabAt(tab, i, null, new Node<K,V>(hash, key, value, null)))break; // 成功插入后跳出循环}// 处理正在进行的表迁移else if ((fh = f.hash) == MOVED)tab = helpTransfer(tab, f);// 桶内已有节点,需要加锁处理else {V oldVal = null;synchronized (f) { // 锁定桶头节点或树节点// 再次检查桶状态,防止A-B-A问题if (tabAt(tab, i) == f) {// 处理链表节点if (fh >= 0) {binCount = 1;for (Node<K,V> e = f;; ++binCount) {K ek;// 寻找匹配的键或插入位置if (e.hash == hash &&((ek = e.key) == key ||(ek != null && key.equals(ek)))) {oldVal = e.val;if (!onlyIfAbsent)e.val = value; // 更新值break;}Node<K,V> pred = e;if ((e = e.next) == null) {pred.next = new Node<K,V>(hash, key, value, null);break;}}}// 处理树形节点else if (f instanceof TreeBin) {Node<K,V> p;binCount = 2;// 在树中插入或更新if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key, value)) != null) {oldVal = p.val;if (!onlyIfAbsent)p.val = value; // 更新值}}}}// 检查是否需要树化或已经完成插入if (binCount != 0) {if (binCount >= TREEIFY_THRESHOLD)treeifyBin(tab, i); // 链表转红黑树if (oldVal != null)return oldVal; // 返回旧值break; // 成功插入或更新后跳出循环}}}// 插入后调整大小和其他维护操作addCount(1L, binCount);return null; // 在某些情况下可能未找到旧值}
putVal 方法是实现 put 和 putIfAbsent 功能的核心逻辑,它负责在 ConcurrentHashMap 中插入或更新键值对。以下是该方法的主要行为和结论概述:
-
键值验证:确保传入的键和值都不为 null,违反此规则将抛出 NullPointerException。
-
哈希与索引计算:通过对键的哈希码应用扰动函数计算得到最终哈希值,并据此确定桶的索引。
-
表初始化与扩容处理:
若表尚未初始化,通过 initTable 进行初始化。
若当前桶正在被转移(因为表正在扩容),则帮助完成转移操作。 -
无锁插入尝试:当目标桶为空时,尝试使用 CAS 操作直接插入新节点,以避免加锁开销。
-
加锁与冲突处理:
对于非空桶,根据头节点类型(链表或树)加锁处理。
遍历桶内链表或在树中搜索匹配的键。
若键已存在,则根据 onlyIfAbsent 参数决定是否更新值。
若键不存在,则插入新节点至链表尾部或树的适当位置。 -
树化阈值检查:当桶内节点数量达到 TREEIFY_THRESHOLD 时,将链表转换为红黑树以优化性能。
-
计数与维护:插入成功后,调用 addCount 方法更新元素数量,并可能触发进一步的扩容判断。
-
返回结果:若键已存在,则返回旧值;否则,在某些情况下可能返回 null。
2.数据结构转换:链表转红黑树
- HashMap
当链表长度达到阈值时,HashMap会尝试将链表转换为红黑树。
final void treeifyBin(Node<K,V>[] tab, int hash) {int n, index; Node<K,V> e;// 检查是否需要先扩容if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)resize();else if ((e = tab[index = (n - 1) & hash]) != null) {// 将链表转换为红黑树TreeNode<K,V> hd = null, tl = null;do {TreeNode<K,V> p = replacementTreeNode(e, null); // 转换节点类型if (tl == null)hd = p;else {p.prev = tl;tl.next = p;}tl = p;} while ((e = e.next) != null);// 将红黑树根节点设置回桶中if ((tab[index] = hd) != null)hd.treeify(tab);}
}
- ConcurrentHashMap
/*** 将给定索引处桶中的所有链表节点转换为树形节点,除非表太小,* 在这种情况下会先进行扩容操作。*/private final void treeifyBin(Node<K,V>[] tab, int index) {Node<K,V> b; // 指向当前桶的第一个节点int n, sc; // 分别表示表的长度和树化过程中记录的节点数量// 确保表不为空if (tab != null) {// 检查表容量是否小于最小树化容量,若小于则先尝试扩容if ((n = tab.length) < MIN_TREEIFY_CAPACITY)tryPresize(n << 1); // 尝试将表容量加倍// 检查桶内有有效节点且不是正在转移的 forwarding nodeelse if ((b = tabAt(tab, index)) != null && b.hash >= 0) {synchronized (b) { // 对桶头节点加锁,保护转换过程// 再次检查桶头是否未改变,防止并发修改if (tabAt(tab, index) == b) {// 初始化树的头节点和尾节点TreeNode<K,V> hd = null, tl = null;// 遍历桶内链表,将每个节点转换为TreeNodefor (Node<K,V> e = b; e != null; e = e.next) {TreeNode<K,V> p =new TreeNode<K,V>(e.hash, e.key, e.val, null, null);// 构建TreeNode的双向链表结构if ((p.prev = tl) == null)hd = p; // 设置头节点elsetl.next = p;tl = p; // 移动尾节点指针}// 将桶设置为新的TreeBin,完成树化setTabAt(tab, index, new TreeBin<K,V>(hd));}}}}}
它负责在ConcurrentHashMap的桶中将链表转换为红黑树结构,以提高在哈希冲突较多情况下的查找效率。此方法首先检查表容量是否满足树化的最小要求,然后遍历桶内链表,将每个节点转换为TreeNode对象,并构建这些树节点的双向链表结构,最后将桶的头节点替换为一个TreeBin实例,完成树化过程。在整个转换过程中,通过加锁保证了操作的线程安全性。
static final class TreeBin<K,V> extends Node<K,V>的内部类TreeBin
/*** 使用以节点 `b` 为首的初始节点集创建一个二叉树节点容器。* 此构造方法负责将一系列已排序的节点(通常源自链表)构造成红黑树结构。** @param b 初始节点集合的头节点,用于构建红黑树。*/
TreeBin(TreeNode<K,V> b) {// 调用父类构造器进行初始化,设置TREEBIN标记以及其它属性为null。super(TREEBIN, null, null, null);// 保存传入的头节点到first字段。this.first = b;// 初始化红黑树的根节点为null。TreeNode<K,V> r = null;// 遍历链表中的每个节点。for (TreeNode<K,V> x = b, next; x != null; x = next) {// 将当前节点的下一个节点暂存至next。next = (TreeNode<K,V>)x.next;// 将当前节点的左右子节点清空,准备构建红黑树。x.left = x.right = null;// 如果红黑树根节点尚未设定(首次遍历或新分支):if (r == null) {// 设定当前节点为根,无父节点,颜色设为黑色。x.parent = null;x.red = false;r = x; // 更新根节点为当前节点。} else {// 获取当前节点的键和哈希值,准备插入红黑树。K k = x.key;int h = x.hash;// 准备比较器类引用。Class<?> kc = null;// 在红黑树中查找当前节点的插入位置。for (TreeNode<K,V> p = r;;) {int dir, ph;K pk = p.key;// 根据键的哈希值比较确定插入方向。if ((ph = p.hash) > h)dir = -1;else if (ph < h)dir = 1;else { // 哈希值相同时,根据键的自然顺序或比较器决定。if (kc == null && (kc = comparableClassFor(k)) == null)// 键不可比较,则使用tie-break规则。dir = tieBreakOrder(k, pk);else// 可比较,则直接比较结果作为方向。dir = compareComparables(kc, k, pk);}// 记录当前父节点。TreeNode<K,V> xp = p;// 按照dir方向移动至下一个节点,若为空则插入当前节点。if ((p = (dir <= 0) ? p.left : p.right) == null) {x.parent = xp;if (dir <= 0)xp.left = x;elsexp.right = x;// 插入后平衡红黑树。r = balanceInsertion(r, x);break;}}}}// 设置构造完成的红黑树的根节点。this.root = r;// 断言检查红黑树的不变性条件是否满足。assert checkInvariants(root);
}
- 它接收一个头节点b,遍历以其为首的节点集合,将这些节点逐个插入到一个新的红黑树结构中。过程中,代码不仅重新组织了节点间的链接关系(父母、左右子节点),还通过平衡插节点是黑色;任意节点到其每个叶子节点的所有路径上包含相同数量的黑色节点;且对于每个红色节点,其两个子节点都是黑色的)。通过这种方式,该构造函数保证了转换后的红黑树维持了良好的搜索性能特性,即最坏情况下的时间复杂度为O(log n)。
- 在遍历链表的过程中,代码首先清空每个节点的左右子节点信息,这是因为这些节点之前作为链表的一部分,没有树结构的概念。然后,通过比较节点的哈希值及键值(如果哈希值相同)来确定新节点在树中的插入位置,这一过程体现了红黑树的排序特性。当遇到相等哈希值的情况时,代码还会尝试利用键的自然顺序或者自定义比较器来进一步区分,确保键的唯一性和有序性。
- 特别地,代码中还包括了一个平衡调整的过程,通过balanceInsertion方法在插入新节点后对树进行必要的旋转和重新着色操作,以维护红黑树的平衡状态。这是确保树操作效率的关键步骤,避免了因连续插入导致树形态退化成链式结构的可能性。
- 最后,通过断言assert checkInvariants(root);来验证构建完成的红黑树是否满足红黑树的基本不变量,这是一种调试辅助手段,用于在开发和测试阶段捕捉可能的逻辑错误,确保数据结构的正确性。在生产环境中,断言的启用与否通常取决于JVM的启动参数配置。
3.扩容机制
触发hashMap和concurentHashMap扩容机制的条件
HashMap 扩容条件
- 加载因子(Load Factor):HashMap 默认的加载因子为 0.75。这意味着当 HashMap 中的元素数量达到其容量的 75% 时,HashMap 会自动进行扩容操作。这是为了防止哈希冲突过于频繁,影响性能。
- 容量(Capacity):扩容时,HashMap 会创建一个新的更大的数组,并将原有数组中的元素重新分配到新数组中。扩容后的容量通常是原容量的两倍(例如,从 16 扩展到 32)。
ConcurrentHashMap 扩容条件
- 段(Segment)或桶(Bucket)级别扩容:在 Java 8 之前的版本中,ConcurrentHashMap 是由多个 Segment 组成的分段锁结构。每个 Segment 相当于一个小的 HashMap,有各自的扩容机制。当某个 Segment 中的元素数量达到其阈值时,会单独对该 Segment 进行扩容。而在 Java 8 及以后版本中,虽然去除了 Segment,但扩容逻辑类似,关注的是桶(Bucket)级别的增长。
- 全局容量与负载:整体上,ConcurrentHashMap 也会监控其全局的元素数量与容量的比例,当总体元素数量达到全局阈值时,会触发整体的扩容操作。默认的加载因子也是 0.75,意味着当表中的元素数量达到总容量的 75% 时,会进行扩容。
- 并发控制:ConcurrentHashMap 在扩容时采用了细粒度的锁机制,确保扩容操作能与读写操作并发执行,减少阻塞。扩容时,不是一次性复制所有桶,而是逐步将桶从旧数组迁移到新数组,这个过程中仍然允许其他线程的读写操作。
总的来说,HashMap 和 ConcurrentHashMap 都是在元素数量达到一定比例(默认为 75%)时触发扩容,但 ConcurrentHashMap 通过更精细的并发控制机制,在扩容的同时能保持较高的并发性能。
HashMap
/*** 初始化或加倍哈希表容量。如果原表为空,则按照阈值字段保存的初始容量目标分配空间。* 否则,由于采用2的幂次扩展方式,来自每个桶的元素必须保持索引不变,* 或者在新表中以2的幂次偏移量移动。** @return 新的哈希表数组*/final Node<K,V>[] resize() {Node<K,V>[] oldTab = table; // 保存旧的哈希表引用int oldCap = (oldTab == null) ? 0 : oldTab.length; // 获取旧容量int oldThr = threshold; // 保存旧的扩容阈值int newCap, newThr = 0; // 初始化新容量和新阈值// 如果旧容量大于0if (oldCap > 0) {// 如果旧容量已达到最大,设置阈值为最大整数并返回原表if (oldCap >= MAXIMUM_CAPACITY) {threshold = Integer.MAX_VALUE;return oldTab;}// 否则,如果可以扩大两倍且旧容量至少为默认初始容量,则翻倍容量和阈值else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&oldCap >= DEFAULT_INITIAL_CAPACITY)newThr = oldThr << 1; // 阈值也翻倍}// 如果旧阈值大于0,说明初始容量被放在了阈值字段里else if (oldThr > 0) newCap = oldThr;// 如果旧阈值为0,使用默认初始容量和加载因子计算新容量和新阈值else { newCap = DEFAULT_INITIAL_CAPACITY;newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);}// 如果新阈值未设置(仍为0),根据新容量和加载因子计算新阈值if (newThr == 0) {float ft = (float)newCap * loadFactor;newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?(int)ft : Integer.MAX_VALUE);}// 设置新的扩容阈值threshold = newThr;// 创建新容量大小的新哈希表数组@SuppressWarnings({"rawtypes","unchecked"})Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];// 将新表赋值给table引用table = newTab;// 如果旧表不为空,开始转移数据if (oldTab != null) {for (int j = 0; j < oldCap; ++j) {Node<K,V> e; // 当前桶的头节点// 遍历桶中的节点if ((e = oldTab[j]) != null) {// 清除旧桶引用,准备重用节点oldTab[j] = null;// 单个节点直接迁移if (e.next == null)newTab[e.hash & (newCap - 1)] = e;// 如果是树节点,则执行特殊分裂操作else if (e instanceof TreeNode)((TreeNode<K,V>)e).split(this, newTab, j, oldCap);// 对于链表节点,维持顺序并重新分配到新桶else { // preserve orderNode<K,V> loHead = null, loTail = null; // 低位链表头尾指针Node<K,V> hiHead = null, hiTail = null; // 高位链表头尾指针Node<K,V> next;do {next = e.next;// 根据hash值确定节点应分配到新表的哪个部分if ((e.hash & oldCap) == 0) {if (loTail == null)loHead = e;elseloTail.next = e;loTail = e;}else {if (hiTail == null)hiHead = e;elsehiTail.next = e;hiTail = e;}} while ((e = next) != null);// 将处理好的链表分别放入新表对应位置if (loTail != null) {loTail.next = null;newTab[j] = loHead;}if (hiTail != null) {hiTail.next = null;newTab[j + oldCap] = hiHead; // 高位链表应放置在原索引加上旧容量的位置}}}}}return newTab; // 返回扩容后的新哈希表}
ConcurrentHashMap
触发扩容的检查
在addCount方法中,有一个环节用于检查是否需要扩容:
private final void addCount(long x, int check) {CounterCell[] as; long b, s;if (check <= 1) {// 省略其他逻辑...}else if (as = counterCells != null ||!U.compareAndSwapLong(this, BASECOUNT, v = baseCount, s = v + x)) {// 省略其他逻辑...}// 检查是否需要扩容if (check >= 0) {Node<K,V>[] tab, nt; int n, sc;while ((tab = table) != null &&(n = tab.length) < MAXIMUM_CAPACITY &&(sc = sizeCtl) >= 0) {if (sc < n << RESIZE_STAMP_SHIFT) {if ((sc >>> RESIZE_STAMP_SHIFT) != resizeStamp(n) || sc == resizeStamp(n) + 1 ||sc == resizeStamp(n) + MAX_RESIZERS || transferIndex <= 0)break;if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))transfer(tab, null);}// 其他情况省略...}}
}
/*** 负责在扩容时将原哈希表中的节点重新分配到新的、更大的哈希表中。* 实现并发安全的节点迁移,以支持HashMap在使用过程中的动态扩容。** @param tab 当前正在使用的哈希表数组* @param nextTab 新的、扩容后的哈希表数组*/
private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {int n = tab.length; // 获取当前哈希表的长度int stride; // 每个线程处理的步长,用于并发转移if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)stride = MIN_TRANSFER_STRIDE; // 如果计算出的步长太小,则设置最小步长// 初始化新哈希表,如果尚未初始化if (nextTab == null) {try {@SuppressWarnings("unchecked")Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1]; // 新哈希表长度为原长度的两倍nextTab = nt;} catch (Throwable ex) { // 处理可能出现的内存不足异常sizeCtl = Integer.MAX_VALUE;return;}nextTable = nextTab; // 设置新表引用transferIndex = n; // 初始化转移索引}int nextn = nextTab.length; // 新哈希表的长度ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab); // 前向节点,用于临时替代已转移的桶boolean advance = true; // 控制是否继续转移下一个桶boolean finishing = false; // 标记是否所有桶都至少被尝试过一次转移// 主循环,负责桶的遍历和转移for (int i = 0, bound = 0;;) {Node<K,V> f; int fh;// 决定是否进入下一个桶的转移while (advance) {int nextIndex, nextBound;// 检查是否到达边界或完成标志if (--i >= bound || finishing)advance = false;else if ((nextIndex = transferIndex) <= 0) {i = -1;advance = false; // 所有桶已完成首次尝试} else if (U.compareAndSwapInt(this, TRANSFERINDEX, nextIndex,nextBound = (nextIndex > stride ?nextIndex - stride : 0))) {bound = nextBound;i = nextIndex - 1;advance = false; // 更新转移范围并准备处理下一个桶}}// 检查是否结束循环if (i < 0 || i >= n || i + n >= nextn) {int sc;if (finishing) { // 如果完成阶段,提交新表并更新控制状态nextTable = null;table = nextTab;sizeCtl = (n << 1) - (n >>> 1);return;}// 准备进入完成阶段,减少sizeCtl并重置iif (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)return;finishing = advance = true;i = n; // 重新检查所有桶}} else { // 处理当前桶if ((f = tabAt(tab, i)) == null)advance = casTabAt(tab, i, null, fwd); // 置空桶并标记为已转移else if ((fh = f.hash) == MOVED)advance = true; // 已经被其他线程转移else { // 正常桶的转移处理synchronized (f) { // 锁住桶头节点,防止并发修改if (tabAt(tab, i) == f) { // 确保桶未被其他线程改变Node<K,V> ln, hn; // 用于存储低位和高位链表if (fh >= 0) { // 处理链表桶// 初始化runBit为当前桶头节点的哈希值与原哈希表长度-1的按位与结果int runBit = fh & n;// 初始化lastRun为当前桶的第一个节点,即f自身Node<K,V> lastRun = f;// 遍历当前桶中的链表for (Node<K,V> p = f.next; p != null; p = p.next) {// 计算当前节点p的哈希值与原哈希表长度-1的按位与结果int b = p.hash & n;// 检查当前节点的runBit是否与之前的不同if (b != runBit) {// 如果不同,说明遇到了需要划分到不同桶的节点// 更新runBit为当前节点的b值,并记录下这个作为新runBit的第一个节点lastRunrunBit = b;lastRun = p;}}// 根据最后的runBit决定高低位链表的分配// 如果runBit为0,说明从f到lastRun这一段应该分配到新表的低位桶(索引不变)if (runBit == 0) {ln = lastRun; // ln链表指向lastRun,包含从f到lastRun的节点hn = null; // hn链表为空,因为所有处理的节点都属于低位}// 否则,runBit不为0,这一段应该分配到新表的高位桶(索引加上原表长度)else {hn = lastRun; // hn链表指向lastRun,包含从f到lastRun的节点ln = null; // ln链表为空,因为所有处理的节点都属于高位}// 遍历当前桶中的链表,根据节点的hash值分配到ln(低位链表)或hn(高位链表)for (Node<K,V> p = f; p != null; p = p.next) {int ph = p.hash;K pk = p.key;V pv = p.val;Node<K,V> newNode = new Node<>(ph, pk, pv, null);if ((ph & n) == 0) {if (ln == null)ln = newNode;elseln.next = newNode;} else {if (hn == null)hn = newNode;elsehn.next = newNode;}}// 将拆分后的链表放入新哈希表的对应位置setTabAt(nextTab, i, ln); // 低位链表放回原索引setTabAt(nextTab, i + n, hn); // 高位链表放在新索引setTabAt(tab, i, fwd); // 标记原索引桶已处理advance = true; // 标记可以处理下一个桶} else if (f instanceof TreeBin) { // 树节点桶的处理// 树节点的拆分逻辑TreeBin<K,V> t = (TreeBin<K,V>)f;TreeNode<K,V> lo = null, loTail = null;TreeNode<K,V> hi = null, hiTail = null;int lc = 0, hc = 0;// 遍历树节点,根据hash值分配到lo(低位树)或hi(高位树)for (Node<K,V> e = t.first; e != null; e = e.next) {TreeNode<K,V> p = new TreeNode<>(e.hash, e.key, e.val, null, null);if ((p.hash & n) == 0) {if (loTail == null)lo = p;elseloTail.next = p;loTail = p;lc++;} else {if (hiTail == null)hi = p;elsehiTail.next = p;hiTail = p;hc++;}}// 根据拆分结果构建新树或链表ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) : (hc != 0) ? new TreeBin<>(lo) : t;hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) : (lc != 0) ? new TreeBin<>(hi) : t;// 将处理后的树或链表放入新哈希表setTabAt(nextTab, i, ln);setTabAt(nextTab, i + n, hn);setTabAt(tab, i, fwd);advance = true; // 标记可以处理下一个桶}}} // synchronized 结束} // if (fh >= 0) 或 (f instanceof TreeBin) 结束} // else (桶非空且未转移) 结束} // 主循环结束
} // transfer 方法结束
transfer方法是Java ConcurrentHashMap类中的核心方法之一,其主要职责是在哈希表扩容时,将原哈希表中的所有节点(包括链表节点和树节点)高效且安全地迁移到一个新的、容量更大的哈希表中。以下是该方法的关键点总结:
1)并发转移: 利用多线程并发执行,每个处理器负责哈希表的一部分桶进行迁移,提高了扩容效率,同时确保操作的线程安全性。
2)步长计算: 动态计算每个线程的处理步长(stride),平衡并发度与竞争,特别是在CPU核心数较多时,合理分配每个线程的工作量。
3)新表初始化: 在第一次调用时,会创建一个两倍于原表大小的新哈希表,并处理可能的OutOfMemoryError异常。
4)桶的遍历与转移:
- 使用transferIndex和bound来控制遍历范围,逐步推进,确保所有桶都被处理。
- 对于空桶,直接设置转发节点。
- 对于已标记为“MOVED”的桶,跳过处理(已被其他线程处理)。
- 对于链表桶,根据节点的哈希值将其分割为两个链表,分别放置在新表的原索引和原索引+n的位置。
- 对于树形桶(当链表长度超过阈值时转换而成),同样进行拆分处理,可能重新调整为链表或新的树形结构。
5)控制转移流程:
- 使用finishing标志来确保所有桶至少被检查过一次,之后进入最终的整理阶段,提交新表并更新控制状态。
- 通过CAS操作保证操作的原子性和一致性,减少线程间的直接竞争。
6)桶内同步: 在处理非空桶时,通过同步块锁定桶头节点,确保同一时间只有一个线程能操作该桶,保证了在并发环境下的数据一致性。
7)树形节点的处理: 特别处理了树形桶的拆分,将树拆分为两个部分,可能重新转换为链表或新的树结构,确保数据结构的优化。
总之,transfer方法通过精细的并发控制和数据结构操作,实现了高效且线程安全的哈希表扩容过程,是ConcurrentHashMap高并发性能的关键实现之一。
三、putIfAbsent方法computeIfAbsent方法区别
场景代码
public static void main(String[] args) {test(new HashMap<>());test(new ConcurrentHashMap<>());}private static void test(Map<String, String> map) {log.info("class : {}", map.getClass().getName());try {log.info("putIfAbsent test1 null value : {}", map.putIfAbsent("test1", null));} catch (Exception ex) {ex.printStackTrace();}log.info("test containsKey test1 after putIfAbsent : {}", map.containsKey("test1"));log.info("computeIfAbsent test2 null value : {}", map.computeIfAbsent("test2", k -> "20"));log.info("test containsKey test2 after computeIfAbsent : {}", map.containsKey("test2"));log.info("putIfAbsent test3 non-null value : {}", map.putIfAbsent("test3", "test3"));log.info("computeIfAbsent test4 non-null value : {}", map.computeIfAbsent("test4", k -> "test4"));log.info("putIfAbsent test4 expensive value : {}", map.putIfAbsent("test4", getValue()));log.info("computeIfAbsent test4 expensive value : {}", map.computeIfAbsent("test4", k -> getValue()));}private static String getValue() {try {TimeUnit.SECONDS.sleep(1);} catch (InterruptedException e) {e.printStackTrace();}return UUID.randomUUID().toString();}
传入HashMap结果:
传入ConcurrentHashMap结果:
结论:
前提:HashMap只可以有一个K=null,V随意;ConcurrentHashMap的K-V 都!=null
putIfAbsent
:当K-V不存在,将待插入的K-V插入,返回null;当K-V存在,返回当前K-V的值,有函数也不更新;computeIfAbsent
:当K-V不存在,将对应K的计算结果插入(但是当V=null,则不插入K-null);当K-V存在,返回原映射中的值;
看完笔者这篇文章余兴不足,还可以看看别人的
HashMap和ConcurrentHashMap的区别,详解HashMap和ConcurrentHashMap数据结构
HashMap和ConcurrentHashMap
HashMap和ConcurrentHashMap详细笔记