ConcurrentHashMap内部维护了一个Node类型的数组:Node<k,v>[] table,table一共包含 4 种不同类型的桶,5种不同的节点,分别是Node、TreeBin、TreeNode、ForwardingNode和ReservationNode。
数组每一个位置table[i]代表一个桶,当插入键值对时根据键的hash值映射到不同桶位置;
Node节点 是其他四种类型节点的父类;
TreeBin结点 所连接的是一颗红黑树,红黑树的结点用TreeNode表示;
ForwardingNode结点 是临时节点,仅在扩容时才会使用;
ReservationNode结点 是保留节点,只充当占位符加锁使用;
为什么没有直接用TreeNode呢?
主要是因为红黑树的操作比较复杂,包括构建、左旋、右旋、删除,平衡等操作,用一个代理结TreeBin来包含这些复杂操作,其实是一种 “职责分离”的思想,另外TreeBin中也包含了一些加/解锁操作。
在jdk1.8之前,ConcurrentHashMap采用了分段【Segment】锁的设计思路,以减少热点域的冲突,在jdk16中依旧有内部类Segment,目的是为了序列化以及兼容以前的jdk版本;jdk1.8不再延续,转而直接对每个桶加锁,并用“红黑树”链接冲突结点(有兴趣的可以看红黑树的相关讲解)
/*
* 普通的Entry结点, 以链表形式保存时才会使用, 存储实际的数据.
*/
static class Node<K,V> implements Map.Entry<K,V> {
final int hash; //通过key计算hash值,通过hash值找相应的桶
final K key;
volatile V val; //volatile修饰,保证可见性、有序性、但和原子性可没什么关系
volatile Node<K,V> next; //volatile修饰,链表指针💛
Node(int hash, K key, V val) { //构造器
this.hash = hash;
this.key = key;
this.val = val;
}
Node(int hash, K key, V val, Node<K,V> next) {
this(hash, key, val);
this.next = next;
}
public final K getKey() { return key; }
public final V getValue() { return val; }
public final int hashCode() { return key.hashCode() ^ val.hashCode(); }
//这里我放的jdk16版本,Helpers我并不太了解,但看其源码就是为JUC包下的一个工具类,帮助toString,如果以后深入了解,再来纠正
public final String toString() { return Helpers.mapEntryToString(key, val); }
public final V setValue(V value) { throw new UnsupportedOperationException(); }
public final boolean equals(Object o) {
Object k, v, u; Map.Entry<?,?> e;
return ((o instanceof Map.Entry) &&
(k = (e = (Map.Entry<?,?>)o).getKey()) != null &&
(v = e.getValue()) != null &&
(k == key || k.equals(key)) &&
(v == (u = val) || v.equals(u)));
}
//链表查找,不同类型的结点有不同的find()方法🧡
Node<K,V> find(int h, Object k) {...}
/*
TreeNode的代理结点(相当于封装了TreeNode的容器,提供针对红黑树的转换操作和锁控制)
hash值固定为-2
*/
static final class TreeBin<K,V> extends Node<K,V> {
TreeNode<K,V> root; // 红黑树结构的根结点
volatile TreeNode<K,V> first; // 链表结构的头结点
volatile Thread waiter; // 最近的一个设置WAITER标识位的线程
volatile int lockState; // 整体的锁状态标识位,0为初始态
// values for lockState
static final int WRITER = 1; // 二进制001,红黑树的写锁状态
static final int WAITER = 2; // 二进制010,红黑树的等待获取写锁状态(优先锁,当有锁等待,读就不能增加了)
// 二进制100,红黑树的读锁状态,读可以并发,每多一个读线程,lockState都加上一个READER值,
static final int READER = 4;
/*
在hashCode相等并且不是Comparable类型时,用此方法判断大小.
*/
static int tieBreakOrder(Object a, Object b) {
int d;
if (a == null || b == null ||
(d = a.getClass().getName().
compareTo(b.getClass().getName())) == 0)
d = (System.identityHashCode(a) <= System.identityHashCode(b) ? -1 : 1);
return d;
}
// 将以b为头结点的链表转换为红黑树
TreeBin(TreeNode<K,V> b) {...}
// 通过lockState,对红黑树的根结点➕写锁.
private final void lockRoot() {
if (!U.compareAndSetInt(this, LOCKSTATE, 0, WRITER))
contendedLock(); // offload to separate method ,Possibly blocks awaiting root lock.
}
//释放写锁
private final void unlockRoot() { lockState = 0; }
// 从根结点开始遍历查找,找到“相等”的结点就返回它,没找到就返回null,当存在写锁时,以链表方式进行查找,后会面会介绍
final Node<K,V> find(int h, Object k) {... }
/**
* 查找指定key对应的结点,如果未找到,则直接插入.
* @return 直接插入成功返回null, 替换返回找到的结点的oldVal
*/
final TreeNode<K,V> putTreeVal(int h, K k, V v) {...}
/*
删除红黑树的结点:
1. 红黑树规模太小时,返回true,然后进行 树 -> 链表 的转化,最后删除;
2. 红黑树规模足够时,不用变换成链表,但删除结点时需要加写锁;
*/
final boolean removeTreeNode(TreeNode<K,V> p) {...}
// 以下是红黑树的经典操作方法,改编自《算法导论》
static <K,V> TreeNode<K,V> rotateLeft(TreeNode<K,V> root , TreeNode<K,V> p) { ...}
static <K,V> TreeNode<K,V> rotateRight(TreeNode<K,V> root , TreeNode<K,V> p) {...}
static <K,V> TreeNode<K,V> balanceInsertion(TreeNode<K,V> root , TreeNode<K,V> x) {...}
static <K,V> TreeNode<K,V> balanceDeletion(TreeNode<K,V> root, TreeNode<K,V> x) { ... }
static <K,V> boolean checkInvariants(TreeNode<K,V> t) {...} //递归检查红黑树的正确性
private static final long LOCKSTATE= U.objectFieldOffset(TreeBin.class, "lockState");
}
// 红黑树结点,存储实际数据
static final class TreeNode<K,V> extends Node<K,V> {
TreeNode<K,V> parent; // red-black tree links 红黑树链接
TreeNode<K,V> left;
TreeNode<K,V> right;
/* needed to unlink next upon deletion ,prev指针是为了方便删除,
删除链表的非头结点时,需要知道它的前驱结点才能删除,所以直接提供一个prev指针
*/
TreeNode<K,V> prev;
boolean red;
TreeNode(int hash, K key, V val, Node<K,V> next , TreeNode<K,V> parent) {
super(hash, key, val, next);
this.parent = parent;
}
Node<K,V> find(int h, Object k) {
return findTreeNode(h, k, null);
}
//以当前结点(this)为根结点,开始遍历查找指定key.
final TreeNode<K,V> findTreeNode(int h, Object k, Class<?> kc) {...}
/**
* ForwardingNode是一种临时结点,在扩容进行中才会出现,hash值固定为-1,且不存储实际数据。
* 如果旧table数组的一个桶table[i]中全部的结点都迁移到了新table中,则在这个桶中放置一个ForwardingNode,
即table[i]=ForwardingNode。
* 读操作碰到ForwardingNode时,将操作转到扩容后的新table数组上去执行---》find()方法;写操作碰见它时,则尝试帮助扩容。
*/
static final class ForwardingNode<K, V> extends Node<K, V> {
final Node<K, V>[] nextTable;
ForwardingNode(Node<K,V>[] tab) {
super(MOVED, null, null);
this.nextTable = tab;
}
// 在新的数组(nextTable)上进行查找
Node<K, V> find(int h, Object k) {...}
2.2.5、ReservationNode结点
保留节点
/**
* 保留结点.
* hash值固定为-3, 不保存实际数据
* 只在computeIfAbsent和compute这两个函数式API中充当占位符加锁使用
*/
static final class ReservationNode<K, V> extends Node<K, V> {
ReservationNode() {
super(RESERVED, null, null, null);
}
Node<K, V> find(int h, Object k) {
return null;
}
}
public class ConcurrentHashMap<K,V> extends AbstractMap<K,V>
implements ConcurrentMap<K,V>, Serializable {
}
CHM继承了AbstractMap,这是一个java.util
包下的抽象类,提供Map接口的骨干实现,以最大限度地减少实现Map这类数据结构时所需的工作量,一般来讲,如果需要重复造轮子——自己来实现一个Map,那一般就是继承AbstractMap。
** CHM**实现了ConcurrentMap
这个接口,ConcurrentMap是在JDK1.5时随着J.U.C包引入的,这个接口其实就是提供了一些针对Map的原子操作:
public interface ConcurrentMap<K, V> extends Map<K, V> {
}
常量
/**
* 最大容量.
*/
private static final int MAXIMUM_CAPACITY = 1 << 30;
/**
* 默认初始容量
*/
private static final int DEFAULT_CAPACITY = 16;
/**
* The largest possible (non-power of two) array size.
* Needed by toArray and related methods.
*/
static final int MAX_ARRAY_SIZE = Integer.MAX_VALUE - 8;
/**
* 负载因子,为了兼容JDK1.8以前的版本而保留。
* JDK1.8中的ConcurrentHashMap的负载因子恒定为0.75
*/
private static final float LOAD_FACTOR = 0.75f;
/**
* 链表转树的阈值,即链接结点数大于8时, 链表转换为树.
*/
static final int TREEIFY_THRESHOLD = 8;
/**
* 树转链表的阈值,即树结点树小于6时,树转换为链表.
*/
static final int UNTREEIFY_THRESHOLD = 6;
/**
* 在链表转变成树之前,还会有一次判断:
* 即只有键值对数量大于MIN_TREEIFY_CAPACITY,才会发生转换。
* 这是为了避免在Table建立初期,多个键值对恰好被放入了同一个链表中而导致不必要的转化。
*/
static final int MIN_TREEIFY_CAPACITY = 64;
/**
* 在树转变成链表之前,还会有一次判断:
* 即只有键值对数量小于MIN_TRANSFER_STRIDE,才会发生转换.
*/
private static final int MIN_TRANSFER_STRIDE = 16;
/**
* 用于在扩容时生成唯一的随机数.
*/
private static int RESIZE_STAMP_BITS = 16;
/**
* 可同时进行扩容操作的最大线程数.
*/
private static final int MAX_RESIZERS = (1 << (32 - RESIZE_STAMP_BITS)) - 1;
/**
* The bit shift for recording size stamp in sizeCtl.
*/
private static final int RESIZE_STAMP_SHIFT = 32 - RESIZE_STAMP_BITS;
static final int MOVED = -1; // 标识ForwardingNode结点(在扩容时才会出现,不存储实际数据)
static final int TREEBIN = -2; // 标识红黑树的根结点
static final int RESERVED = -3; // 标识ReservationNode结点()
static final int HASH_BITS = 0x7fffffff; // usable bits of normal node hash
/**
* CPU核心数,扩容时使用
*/
static final int NCPU = Runtime.getRuntime().availableProcessors();
字段
/**
* Node数组,标识整个Map,首次插入元素时创建,大小总是2的幂次.
*/
transient volatile Node<K, V>[] table;
/**
* 扩容后的新Node数组,只有在扩容时才非空.
*/
private transient volatile Node<K, V>[] nextTable;
/**
* 控制table的初始化和扩容.
* 0 : 初始默认值
* -1 : 有线程正在进行table的初始化
* >0 : table初始化时使用的容量,或初始化/扩容完成后的threshold
* -(1 + nThreads) : 记录正在执行扩容任务的线程数
*/
private transient volatile int sizeCtl;
/**
* 扩容时需要用到的一个下标变量.
*/
private transient volatile int transferIndex;
/**
* 计数基值,当没有线程竞争时,计数将加到该变量上。类似于LongAdder的base变量
*/
private transient volatile long baseCount;
/**
* 计数数组,出现并发冲突时使用。类似于LongAdder的cells数组
*/
private transient volatile CounterCell[] counterCells;
/**
* 自旋标识位,用于CounterCell[]扩容时使用。类似于LongAdder的cellsBusy变量
*/
private transient volatile int cellsBusy;
// 视图相关字段
private transient KeySetView<K, V> keySet;
private transient ValuesView<K, V> values;
private transient EntrySetView<K, V> entrySet;
CHM提供了五个构造器,这五个构造器内部最多也只是计算了下table的初始容量大小,并没有进行实际的创建table数组的工作:
ConcurrentHashMap,采用了一种 **“懒加载”**的模式,只有到 首次插入键值对的时候,才会真正的去初始化table数组。
public ConcurrentHashMap() {
}
public ConcurrentHashMap(int initialCapacity) {
if (initialCapacity < 0)
throw new IllegalArgumentException();
int cap = ((initialCapacity >= (MAXIMUM_CAPACITY >>> 1)) ?
MAXIMUM_CAPACITY :
tableSizeFor(initialCapacity + (initialCapacity >>> 1) + 1));
this.sizeCtl = cap;
}
/**
* 指定table初始容量和负载因子的构造器.
*/
public ConcurrentHashMap(int initialCapacity, float loadFactor) {
this(initialCapacity, loadFactor, 1);
}
/**
* 指定table初始容量、负载因子、并发级别的构造器.
* <p>
* 注意:concurrencyLevel只是为了兼容JDK1.8以前的版本,并不是实际的并发级别,loadFactor也不是实际的负载因子
* 这两个都失去了原有的意义,仅仅对初始容量有一定的控制作用
*/
public ConcurrentHashMap(int initialCapacity, float loadFactor, int concurrencyLevel) {
if (!(loadFactor > 0.0f) || initialCapacity < 0 || concurrencyLevel <= 0)
throw new IllegalArgumentException();
if (initialCapacity < concurrencyLevel)
initialCapacity = concurrencyLevel;
long size = (long) (1.0 + (long) initialCapacity / loadFactor);
int cap = (size >= (long) MAXIMUM_CAPACITY) ?
MAXIMUM_CAPACITY : tableSizeFor((int) size);
this.sizeCtl = cap;
}
/**
* 根据已有的Map构造ConcurrentHashMap.
*/
public ConcurrentHashMap(Map<? extends K, ? extends V> m) {
this.sizeCtl = DEFAULT_CAPACITY;
putAll(m);
}
操作步骤:
//插入键值对,<K,V>均不能为null.
public V put(K key, V value) {
return putVal(key, value, false);
}
/**
* 实际的插入操作
* @param onlyIfAbsent true:仅当key不存在时,才插入
*/
final V putVal(K key, V value, boolean onlyIfAbsent) {
if (key == null || value == null) throw new NullPointerException();
int hash = spread(key.hashCode()); // 再次计算hash值,防止并发情况的影响
/*
* binCount 的用法:
* 1、使用链表保存时,binCount记录table[i]这个桶中所保存的结点数;
* 2、使用红黑树保存时,binCount==2,保证put后更改计数值时能够进行扩容检查,同时不触发红黑树化操作
*/
int binCount = 0;
// 自旋插入结点,直到成功
for (Node<K, V>[] tab = table; ; ) {
Node<K, V> f;
int n, i, fh;
// CASE1: 首次初始化table —— 懒加载
if (tab == null || (n = tab.length) == 0)
tab = initTable();
// CASE2: table[i]对应的桶为null,则直接插入结点
else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
//tabAt(tab, i)方法是调用Unsafe类的方法查看值,保证每次获取到的值都是最新的
if (casTabAt(tab, i, null, new Node<K, V>(hash, key, value, null))) // cas操作:插入一个链表结点,成功返回
break;
// CASE3: 发现ForwardingNode结点(通过MOVED标识ForwardingNode结点存在),说明此时table正在扩容,则尝试协助数据迁移
} else if ((fh = f.hash) == MOVED)
tab = helpTransfer(tab, f);
// CASE4: 出现hash冲突,也就是table[i]桶中已经有了结点
else {
V oldVal = null;
synchronized (f) { // 对table[i]结点上锁,避免并发情况
if (tabAt(tab, i) == f) { // 再判断一下table[i]是不是第一个结点, 防止其它线程的写修改
//static final int HASH_BITS = 0x7fffffff; // 标识Node结点,自然数
//CASE4.1: (fh >= 0)--->table[i]是链表结点
if (fh >= 0) {
binCount = 1; //记录结点数,超过阈值后,需要转为红黑树,提高查找效率
for (Node<K, V> e = f; ; ++binCount) {
K ek;
// 找到“相等”的结点,判断是否需要更新value值(onlyIfAbsent为false则可以插入)
if (e.hash == hash && ((ek = e.key) == key || (ek != null && key.equals(ek)))) {
oldVal = e.val; //记录key冲突的原来对应的value值
if (!onlyIfAbsent) //onlyIfAbsent标志仅当不存在时才插入
e.val = value;
break;
}
//如果没有找到,则直接插在尾部即可
Node<K, V> pred = e;
if ((e = e.next) == null) { // “尾插法”插入新结点
pred.next = new Node<K, V>(hash, key,value, null);
break;
}
}
// CASE4.2: 上面判断不是链表结点,则继续判断table[i]是不是红黑树结点
} else if (f instanceof TreeBin) {
Node<K, V> p;
binCount = 2; //红黑树对应的基值,我认为哈是包括了treebin和root,所以以2为基础
if ((p = ((TreeBin<K, V>) f).putTreeVal(hash, key, value)) != null) { //插入
oldVal = p.val;
if (!onlyIfAbsent)
p.val = value;
}
// CASE4.3: 不是链表节点也不是红黑树结点,则看是不是ReservationNode结点用于计算用的(jdk1.8版本没有这个判断)
}else if (f instanceof ReservationNode)
throw new IllegalStateException("Recursive update");
}
}
if (binCount != 0) {
if (binCount >= TREEIFY_THRESHOLD) // 超过阈值,链表 -> 红黑树 转换
treeifyBin(tab, i);
if (oldVal != null) // 表明本次put操作只是替换了旧值,不用更改计数值
return oldVal;
break;
}
}
}
addCount(1L, binCount); //表明本次操作增加了新值, 计数值加1
return null;
}
1、spread()求hash值
static final int spread(int h) {
return (h ^ (h >>> 16)) & HASH_BITS;
}
2、initTable()
ConcurrentHashMap在构造的时候并不会初始化table数组,首次初始化就在这里通过initTable方法完成,体现了懒加载。
/**
* 初始化table, 使用sizeCtl作为初始化容量.
*/
private final Node<K, V>[] initTable() {
Node<K, V>[] tab;
int sc;
while ((tab = table) == null || tab.length == 0) { //自旋直到初始化成功(每次循环都获取最新的Node数组引用)
if ((sc = sizeCtl) < 0) // sizeCtl<0 :说明table已经正在初始化/扩容,所以让出CPU时间片
Thread.yield();
else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) { // 将sizeCtl更新成-1,表示正在初始化中
//如果CAS操作成功了,代表本线程将负责初始化工作
try {
//再次检查table数组是否为空
if ((tab = table) == null || tab.length == 0) {
//在初始化Map时,sizeCtl代表数组大小,默认16,所以此时n默认为16
int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
Node<K, V>[] nt = (Node<K, V>[]) new Node<?, ?>[n]; //Node数组nt
table = tab = nt; //将nt其赋值给table,tab变量
sc = n - (n >>> 2); // n - (n >>> 2) = n - n/4 = 0.75n
}
} finally {
//将计算后的sc直接赋值给sizeCtl,表示达到12长度就扩容,由于这里只会有一个线程在执行,直接赋值即可,没有线程安全问题
//只需要保证可见性
sizeCtl = sc;
}
break;
}
}
return tab;
}
2.1、如果多个线程同时调用initTable初始化Node数组怎么办?
在初始化数组时使用了乐观锁CAS操作来决定到底是哪个线程有资格进行初始化;volatile变量(sizeCtl):它是一个标记位,用来告诉其他线程这个坑位有没有人在,其线程间的可见性由volatile保证,CAS操作保证了设置sizeCtl标记位的原子性,保证了只有一个线程能设置成功;
2.2、initTable(): 将sizeCtl字段的值(ConcurrentHashMap对象在构造时设置)作为table的大小;这里的n - (n >>> 2),其实就是0.75 /* n,sizeCtl 的值最终需要变更为0.75 /* n,相当于设置了阈值threshold;
2.3、table[i]对应的桶为空: 直接CAS操作占用桶table[i];
2.4、发现ForwardingNode结点,说明此时table正在扩容,则尝试协助进行数据迁移;ForwardingNode结点相当于一个占位结点,表示当前table正在进行扩容,当前线程可以尝试协助数据迁移;
2.5、出现hash冲突,也就是table[i]桶中已经有了结点,当两个不同key映射到同一个 table[i] 桶中时,就会出现这种情况:
/**
* 根据key查找对应的value值
* @return 查找不到则返回null
* @throws NullPointerException 如果key为空,则抛出异常
*/
public V get(Object key) {
Node<K, V>[] tab;
Node<K, V> e, p;
int n, eh;
K ek;
int h = spread(key.hashCode()); // 重新计算key的hash值
//(e = tabAt(tab, (n - 1) & h)) != null找到对应的桶
if ((tab = table) != null && (n = tab.length) > 0 && (e = tabAt(tab, (n - 1) & h)) != null) {
//CASE1:看table[i]当前节点是不是要找的值
if ((eh = e.hash) == h) { // table[i]就是待查找的桶,直接找值
if ((ek = e.key) == key || (ek != null && key.equals(ek)))
return e.val;
//CASE2:当前节点不是,则判断是不是特殊节点,如果是find查找
} else if (eh < 0) // hash值 < 0 , 说明遇到特殊结点(非链表结点), 调用find方法查找
return (p = e.find(h, key)) != null ? p.val : null;
//CASE3:当前不是特殊节点,则链表遍历查找
while ((e = e.next) != null) { // 遍历table[i]中的结点,因为前面通过eh判断过不是特殊节点了,则直接按链表查找
if (e.hash == h && ((ek = e.key) == key || (ek != null && key.equals(ek))))
return e.val;
}
}
return null;
}
用一个类比说:就是先找桶,找到桶,看桶上的结点是不是自己需要的的,如果是就不用打开桶了,直接返回,如果不是我们就看桶里面的结点是不是,而打开桶的方式有两种,一种就是平常的按链表找,另一种就是借助工具 find() 找;
不同的结点有不同的find()实现,这里的find(),是去新数组newtable中查找的
1、链表查找:Node结点的查找
/*
* 链表查找.
*/
Node<K, V> find(int h, Object k) {
Node<K, V> e = this;
if (k != null) {
do {
K ek;
if (e.hash == h && ((ek = e.key) == k || (ek != null && k.equals(ek))))
return e;
} while ((e = e.next) != null);
}
return null;
}
2、红黑树查找:TreeBin结点的查找
reeBin的查找比较特殊,我们知道当桶table[i]被TreeBin结点占用时,说明链接的是一棵红黑树;
final Node<K,V> find(int h, Object k) {
if (k != null) {
// e表示循环迭代的当前节点 迭代的是first引用的链表
for (Node<K,V> e = first; e != null; ) {
// s 保存的是lock临时状态
// ek 链表当前节点的key
int s; K ek;
// (WAITER|WRITER) => 0010 | 0001 => 0011
// lockState & 0011 != 0 条件成立:说明当前TreeBin有等待者线程 或者 目前有写操作线程正在加锁
if (((s = lockState) & (WAITER|WRITER)) != 0) {
if (e.hash == h &&
((ek = e.key) == k || (ek != null && k.equals(ek))))
return e;
e = e.next;
}
// 前置条件:当前TreeBin中等待者线程或者写线程都没有
// 条件成立:说明添加读锁成功
else if (U.compareAndSwapInt(this, LOCKSTATE, s,
s + READER)) {
TreeNode<K,V> r, p;
try {
// 查询操作
p = ((r = root) == null ? null :
r.findTreeNode(h, k, null));
} finally {
// w 表示等待者线程
Thread w;
// U.getAndAddInt(this, LOCKSTATE, -READER) == (READER|WAITER)
// 1.当前线程查询红黑树结束,释放当前线程的读锁 就是让 lockstate 值 -4
// (READER|WAITER) = 0110 => 表示当前只有一个线程在读,且“有一个线程在等待”
// 当前读线程为 TreeBin 中的最后一个读线程
// 2.(w = waiter) != null 说明有一个写线程在等待读操作全部结束
if (U.getAndAddInt(this, LOCKSTATE, -READER) ==
(READER|WAITER) && (w = waiter) != null)
// 使用unpark让写线程恢复运行状态
LockSupport.unpark(w);
}
return p;
}
}
}
return null;
}
3、ForwardingNode结点的查找
/**
* 在新的扩容table—-》nextTable上进行查找
*/
Node<K, V> find(int h, Object k) {
// loop to avoid arbitrarily deep recursion on forwarding nodes
outer:
for (Node<K, V>[] tab = nextTable; ; ) {
Node<K, V> e;
int n;
if (k == null || tab == null || (n = tab.length) == 0 || (e = tabAt(tab, (n - 1) & h)) == null)
return null;
for (; ; ) {
int eh;
K ek;
if ((eh = e.hash) == h && ((ek = e.key) == k || (ek != null && k.equals(ek))))
return e;
if (eh < 0) {
if (e instanceof ForwardingNode) {
tab = ((ForwardingNode<K, V>) e).nextTable;
continue outer;
} else
return e.find(h, k);
}
if ((e = e.next) == null)
return null;
}
}
}
4、ReservationNode结点的查找
Node<K, V> find(int h, Object k) { return null; }
扩容两个步骤:
ConcurrentHashMap在处理 rehash() 的时候,并不会重新计算每个key的hash值,而是利用了一种很巧妙的方法。
ConcurrentHashMap内部的table数组的大小必须为2的幂次,这是为什么呢?
我们通过一个例子说明:
ConcurrentHashMap 在扩容时,这样处理能带来什么好处呢?
这种处理方式非常利于扩容时多个线程同时进行的数据迁移操作,因为旧table的各个桶中的结点迁移不会互相影响,所以就可以用 “分治” 的方式,将整个table数组划分为很多部分,每一部分包含一定区间的桶,每个数据迁移线程处理各自区间中的结点,对多线程同时进行数据迁移非常有利。
当往table[i]中插入结点时,如果链表的结点数目超过一定阈值(8),就会触发链表 -> 红黑树的转换,这样提高了 查找效率:
if (binCount >= TREEIFY_THRESHOLD)
treeifyBin(tab, i); // 链表 -> 红黑树 转换
接下来我们分析这个 链表 -> 红黑树 的转换操作,treeifyBin(tab, i):
/*
* 链表 -> 红黑树 转换
*/
private final void treeifyBin(Node<K,V>[] tab, int index) {
Node<K,V> b; int n;
if (tab != null) {
// CASE 1: table的容量 < MIN_TREEIFY_CAPACITY时,直接进行table扩容,不进行红黑树转换,MIN_TREEIFY_CAPACITY默认为64
if ((n = tab.length) < MIN_TREEIFY_CAPACITY)
tryPresize(n << 1);
// CASE 2: table的容量 ≥ MIN_TREEIFY_CAPACITY时,进行相应桶的链表 -> 红黑树的转换
else if ((b = tabAt(tab, index)) != null && b.hash >= 0) {
synchronized (b) { //同步,对相应的桶的对象加锁
if (tabAt(tab, index) == b) {
TreeNode<K,V> hd = null, tl = null;
//遍历链表,建立红黑树
for (Node<K,V> e = b; e != null; e = e.next) {
TreeNode<K,V> p = new TreeNode<K,V>(e.hash, e.key, e.val, null, null);//结点类型转换
if ((p.prev = tl) == null)
hd = p;
else
tl.next = p;
tl = p;
}
// 以TreeBin类型包装,并链接到table[index]中
setTabAt(tab, index, new TreeBin<K,V>(hd));
}
}
}
}
}
通过 treeifyBin(Node<K,V>[] tab, int index) 源码可以看出,链表 -> 红黑树这一转换并不是一定会进行的:
参考:大厂之路一由浅入深、并行基础、源码分析一 “J.U.C”之collections框架:ConcurrentHashMap扩容迁移等方法的源码分析(学妹哭着对我说:太难了!!!!我要回家!!)_菜菜子-CSDN博客
版权说明 : 本文为转载文章, 版权归原作者所有 版权申明
原文链接 : https://blog.csdn.net/mingyuli/article/details/120462735
内容来源于网络,如有侵权,请联系作者删除!