转载于https://blog.csdn.net/yunzhaji3762/article/details/113623168
ConcurrentHashMap 在 JDK1.7 和 JDK1.8 的实现方式是不同的。
先说看下JDK1.7
数据结构上:
JDK1.7 中的 ConcurrentHashMap 是由 Segment 数组结构和 HashEntry 数组结构组成,即 ConcurrentHashMap 把哈希桶数组切分成小数组(Segment ),每个小数组有 n 个 HashEntry 组成。
锁的实现上:
如下图所示,首先将数据分为一段一段的存储,然后给每一段数据配一把锁,当一个线程占用锁访问其中一段数据时,其他段的数据也能被其他线程访问,实现了真正的并发访问。
其中:
Segment继承了 ReentrantLock,所以 Segment 是一种可重入锁,扮演锁的角色。Segment数组默认大小是16,因此concurrentHashMap的并发度为 16。
然后Segment类中的HashEntry数组,HashEntry类中的value和next的属性都使用volatile
修饰,以此来保证多线程环境下数据获取的可见性。
再来说下JDK1.8
数据结构上:
JDK1.8 中的ConcurrentHashMap 选择了与 HashMap 相同的Node数组+链表+红黑树结构
锁的实现上:
在锁的实现上,抛弃了原有的 Segment 分段锁,采用CAS + synchronized实现更加细粒度的锁。
将锁的级别控制在了更细粒度的哈希桶数组元素级别,也就是说只需要锁住这个链表头节点(红黑树的根节点),就不会影响其他的哈希桶数组元素的读写,大大提高了并发度。
ConcurrentHashMap 的效率要高于 Hashtable,因为 Hashtable 给整个哈希表加了一把大锁实现线程安全。
而ConcurrentHashMap 的锁粒度更低,在 JDK1.7 中采用分段锁实现线程安全,在 JDK1.8 中采用CAS+synchronized实现线程安全。
Hashtable 是使用 synchronized来实现线程安全的,给整个哈希表加了一把大锁,多线程访问时候,只要有一个线程访问或操作该对象,那其他线程只能阻塞等待需要的锁被释放,在竞争激烈的多线程场景中性能就会非常差!
数据结构不同:
线程安全机制不同:
锁的粒度不同:
JDK1.7中:
JDk1.8中:
大致可以分为以下步骤:
CAS
的方式尝试添加;f.hash = MOVED = -1
,说明其他线程在扩容,参与一起扩容synchronized
锁住 f 节点,判断是链表还是红黑树,遍历插入;长度达到 8
的时候,数组扩容或者将链表转换为红黑树JDK1.7中:
由于 HashEntry 涉及到的共享变量都使用 volatile 修饰,volatile 可以保证内存可见性,所以每次获取时都是最新值。
JDK1.8中:
get 方法不需要加锁。因为 Node 的元素 value 和指针 next 是用 volatile 修饰的,在多线程环境下线程A修改节点的 value 或者新增节点的时候是对线程B可见的。
这也是它比其他并发集合比如 Hashtable、用 Collections.synchronizedMap()包装的 HashMap 效率高的原因之一。
没有关系。哈希桶数组table用 volatile 修饰主要是保证在数组扩容的时候保证可见性。
举个例子:
假设 ConcurrentHashMap 允许存放值为 null 的 value,这时有A、B两个线程,线程A调用ConcurrentHashMap.get(key)方法,返回为 null ,我们不知道这个 null 是没有映射的 null ,还是存的值就是 null 。
假设此时,返回为 null 的真实情况是没有找到对应的 key。那么,我们可以用 ConcurrentHashMap.containsKey(key)来验证我们的假设是否成立,我们期望的结果是返回 false 。
但是在我们调用 ConcurrentHashMap.get(key)方法之后,containsKey方法之前,线程B执行了ConcurrentHashMap.put(key, null)的操作。那么我们调用containsKey方法返回的就是 true 了,这就与我们的假设的真实情况不符合了,这就有了二义性。
还可以使用Collections.synchronizedMap方法,对方法进行加同步锁。
如果传入的是 HashMap 对象,其实也是对 HashMap 做的方法做了一层包装,里面使用对象锁来保证多线程场景下,线程安全,本质也是对 HashMap 进行全表锁。在竞争激烈的多线程环境下性能依然也非常差,不推荐使用!
并发度可以理解为程序运行时能够同时更新 ConccurentHashMap且不产生锁竞争的最大线程数。
在JDK1.7中,实际上就是ConcurrentHashMap中的分段锁个数,即Segment[]的数组长度,默认是16,这个值可以在构造函数中设置。如果自己设置了并发度,ConcurrentHashMap 会使用大于等于该值的最小的2的幂指数作为实际并发度,也就是比如你设置的值是17,那么实际并发度是32。
在JDK1.8中,已经摒弃了Segment的概念,选择了Node数组+链表+红黑树结构,并发度大小依赖于数组的大小。
ConcurrentHashMap和HashMap默认初始大小都是16、负载因子都是0.75
负载因子(load factor)是权衡哈希表密集程度的一个参数。
若负载因子过大,则说明哈希表能装载更多元素,出现的hash冲突的概率就越大;
反之,装载越少,出现hash冲突的概率就越小。
同时若负载因子设置过小,很显然内存使用率就不高。
负载因子的取值应考虑到内存使用率和hash冲突概率的平衡
转载于https://blog.csdn.net/yunzhaji3762/article/details/113623168
版权说明 : 本文为转载文章, 版权归原作者所有 版权申明
原文链接 : https://blog.csdn.net/qq_45464560/article/details/122530414
内容来源于网络,如有侵权,请联系作者删除!