登录
首页 >  文章 >  java教程

ConcurrentHashMap并发机制详解

时间:2026-01-17 10:22:33 284浏览 收藏

小伙伴们有没有觉得学习文章很有意思?有意思就对了!今天就给大家带来《ConcurrentHashMap并发安全实现解析》,以下内容将会涉及到,若是在学习中对其中部分知识点有疑问,或许看了本文就能帮到你!

ConcurrentHashMap 的 get 不加锁也能安全,是因为 Node 的 val 和 next 字段为 volatile,借助 JVM 内存模型的 happens-before 保证可见性,单次读取原子且无需锁;全程仅三次内存访问,遇扩容自动查新表。

ConcurrentHashMap是如何实现并发安全的_源码思想讲解

ConcurrentHashMap 为什么 get 不加锁也能安全?

因为 Node 的关键字段都声明为 volatile:比如 valnext。只要一个线程写入了新值,其他线程读取时就能立刻看到最新结果——这是 JVM 内存模型的 happens-before 保证,不是靠锁,而是靠语义约束。

常见错误现象:有人误以为 “没加锁 = 可能读到中间状态”,但在 get 场景下,只要不涉及复合操作(比如先读再算再写),单次读取 volatile 字段就是原子且可见的。

  • get 操作全程无锁,只做三次内存访问:定位数组索引 → 读首节点 → 遍历链表或红黑树(若存在)
  • 如果首节点是 ForwardingNode(hash = -1),说明正在扩容,get 会直接去新表查,无缝切换
  • 红黑树节点封装在 TreeBin 中,其内部查找也用 volatile 保护结构字段,不依赖锁

put 是怎么避免竞争覆盖的?CAS + 自旋 + 细粒度锁

putVal 的核心不是“抢一把大锁”,而是分阶段控制:先用 CAS 尝试无锁写入空槽;失败则退到 synchronized 锁住单个桶(Node 首节点);极端情况(如链表转树)才升级锁范围。

容易踩的坑:以为 “synchronized 锁的是整个 ConcurrentHashMap”,其实它只锁当前桶的头节点(f),其它桶完全不受影响。

  • 首次插入空桶:调用 casTabAt(tab, i, null, new Node(...)),成功即退出
  • 发现桶非空且未扩容:用 synchronized(f) 锁住该 Node,再遍历链表/树插入或更新
  • 遇到 ForwardingNode(hash == -1):说明有线程正在扩容,当前线程主动调用 helpTransfer 协助搬数据
  • 不允许 null key/value:一上来就抛 NullPointerException,这点和 HashMap 不同

扩容过程如何做到读写不阻塞?

扩容不是“停服重建”,而是渐进式迁移:新旧两张表并存,用 sizeCtl 控制状态,每个线程只负责搬自己分到的一小段(stride 默认 16 个桶),老表仍可读写,新表逐步填充。

性能影响:扩容期间 get 自动路由到新旧表,put 若命中已迁移的桶则直接写新表,否则先帮搬再写——所以并发越高,扩容越快,但单次 put 延迟可能略升。

  • 触发条件:addCount 检测到元素数超过 sizeCtl(≈ table.length × 0.75)
  • 初始扩容线程将 sizeCtl 设为负数标记(如 -2),后续线程通过 CAS 递增计数器加入协作
  • 每个线程处理一个区间:从高位开始逐段扫描,搬完一段就更新 transferIndex,避免重复
  • 搬完后,最后一个线程把 nextTable 赋给 table,并重置 sizeCtl 为新容量阈值

JDK 1.7 和 1.8 的并发模型差异在哪?

1.7 是“分段锁(Segment)”,1.8 是“桶级锁(synchronized on Node)+ CAS”,前者锁粒度固定(默认 16 段),后者动态适配实际冲突热点,更轻量、更灵活。

兼容性注意:1.7 的 concurrencyLevel 参数在 1.8 中仅保留用于向后兼容,实际不再划分 Segment,传参无效。

  • 1.7:每个 SegmentReentrantLock 子类,锁住整个段,最多支持 concurrencyLevel 个线程并发写
  • 1.8:彻底去掉 Segment,用 Node[] + volatile + CAS + synchronized 替代,锁只落在具体桶的头节点上
  • 1.8 新增红黑树支持:当链表长度 ≥ 8 且数组长度 ≥ 64,自动树化,查找从 O(n) 降到 O(log n)
  • 1.8 的 spread 方法对 hash 做二次扰动(高16位异或低16位),比 1.7 的两次哈希更简洁高效

真正难啃的是扩容协作逻辑和各种状态码(如 MOVEDTREEBINRESERVED)的边界判断——这些不是靠死记,而是在调试多线程压测时,盯着 sizeCtlnextTable 的变化才能真正吃透。

好了,本文到此结束,带大家了解了《ConcurrentHashMap并发机制详解》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多文章知识!

前往漫画官网入口并下载 ➜
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>