1. 概述
之前介绍了ConcurrentHashMap1.7,采用的是数组+分段锁的方式来实现的。虽然说采用分段锁的方式能够在一定程度上提高并发的效率,但是锁的粒度是Segment级别的,其实还是挺大的。
于是,ConcurrentHashMap1.8继续在1.7版本上进行改进,将锁的粒度进一步减小,变成Node级别,又提升了并发的效率。具体如下图所示:
此外,ConcurrentHashMap1.8仿照HashMap1.8也引入了红黑树进行优化,当链表上的节点数量超过一定阈值的时候,就会转换成红黑树,提高查找的效率。如下图所示:
2. 成员变量
我们先来看下代码中的节点类:
// 链表节点类
static class Node<K,V> implements Map.Entry<K,V> {
final int hash; // 哈希值
final K key; // key
volatile V val; // value
volatile Node<K,V> next; // 下一个节点
}
// 红黑树节点
static final class TreeNode<K,V> extends Node<K,V> {
TreeNode<K,V> parent; // red-black tree links
TreeNode<K,V> left;
TreeNode<K,V> right;
TreeNode<K,V> prev; // needed to unlink next upon deletion
boolean red;
}
// 转移状态节点对应的hash值
static final int MOVED = -1; // hash for forwarding nodes
// 转移节点
static final class ForwardingNode<K,V> extends Node<K,V> {
// 下一个数组,只有在进行转移的时候才会出现
final Node<K,V>[] nextTable;
ForwardingNode(Node<K,V>[] tab) {
super(MOVED, null, null, null);
this.nextTable = tab;
}
}
在节点类中,Node和TreeNode都和普通的HashMap一样。需要注意的是这个ForwardingNode,它只有在扩容迁移节点的时候才会出现,用来标记当前桶正在进行迁移,我们后面会经常看到它。
接下来我们来梳理下其中的成员变量:
// 最大容量
private static final int MAXIMUM_CAPACITY = 1 << 30;
// 默认容量
private static final int DEFAULT_CAPACITY = 16;
// 数组最大的长度
static final int MAX_ARRAY_SIZE = Integer.MAX_VALUE - 8;
// 默认并发度
private static final int DEFAULT_CONCURRENCY_LEVEL = 16;
// 负载因子
private static final float LOAD_FACTOR = 0.75f;
// 树化阈值
static final int TREEIFY_THRESHOLD = 8;
// 非树化阈值
static final int UNTREEIFY_THRESHOLD = 6;
// 最小树化阈值,当没有超过这个值的时候
static final int MIN_TREEIFY_CAPACITY = 64;
// 最小迁移步长,用于tranfer时候分配多个线程并发transfer
private static final int MIN_TRANSFER_STRIDE = 16;
// 桶数组
transient volatile Node<K,V>[] table;
// 进行扩容时使用的nextTable数组
private transient volatile Node<K,V>[] nextTable;
// 用于没有竞争的时候进行计数
private transient volatile long baseCount;
/**
* 这个变量是ConcurrentHashMap1.8中很重要的变量
* 用于数组的初始化和扩容控制
**/
private transient volatile int sizeCtl;
// 迁移的下标
private transient volatile int transferIndex;
// 标识计数桶是否繁忙
private transient volatile int cellsBusy;
// 计数器
private transient volatile CounterCell[] counterCells;
ConcurrentHashMap1.8相比于1.7多了很多成员变量来提高并发的效率,我们这里暂时先重点关注sizeCtl,其它的变量到我们用到我们再进行解释。sizeCtl主要是在数组的初始化和扩容的时候会用到,有两种情况:
- 当值为负数时:如果为-1表示正在初始化,如果为-n则表示正有N-1个线程在进行扩容操作;
- 当值为正数时:如果当前数组为null,sizeCtl表示需要新建数组的长度。如果已经初始化过了,则表示临界值,超过这个值就需要进行扩容;
3. 构造方法
// 无参构造方法
public ConcurrentHashMap() {
}
// 一个参数的构造方法
public ConcurrentHashMap(int initialCapacity) {
if (initialCapacity < 0)
throw new IllegalArgumentException();
// 保证容量为2的n次幂
int cap = ((initialCapacity >= (MAXIMUM_CAPACITY >>> 1)) ?
MAXIMUM_CAPACITY :
tableSizeFor(initialCapacity + (initialCapacity >>> 1) + 1));
// 设置sizeCtl为初始化容量
this.sizeCtl = cap;
}
// Map迁移
public ConcurrentHashMap(Map<? extends K, ? extends V> m) {
this.sizeCtl = DEFAULT_CAPACITY;
putAll(m);
}
// 2个参数的构造函数
public ConcurrentHashMap(int initialCapacity, float loadFactor) {
this(initialCapacity, loadFactor, 1);
}
// 3个参数的构造函数
public ConcurrentHashMap(int initialCapacity,
float loadFactor, int concurrencyLevel) {
if (!(loadFactor > 0.0f) || initialCapacity < 0 || concurrencyLevel <= 0)
throw new IllegalArgumentException();
if (initialCapacity < concurrencyLevel)
initialCapacity = concurrencyLevel;
// 保证数组的大小为2的n次幂
long size = (long)(1.0 + (long)initialCapacity / loadFactor);
int cap = (size >= (long)MAXIMUM_CAPACITY) ?
MAXIMUM_CAPACITY : tableSizeFor((int)size);
// 设置sizeCtl为初始化容量
this.sizeCtl = cap;
}
在构造方法中,我们可以看到并没有初始化数组,只设置了sizeCtl进行标记容量大小,采用懒加载的方式,当需要使用的时候才创建数组。
4. initTable方法
private final Node<K,V>[] initTable() {
Node<K,V>[] tab; int sc;
// 数组没有被初始化过
while ((tab = table) == null || tab.length == 0) {
// 如果sizeCtl是负数,那么说明有线程正在初始化
if ((sc = sizeCtl) < 0)
Thread.yield(); // 挂起进行等待
// 尝试用CAS设置sizeCtl为-1,设置成功就可以进入去初始化数组
else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
try {
// 再次检查
if ((tab = table) == null || tab.length == 0) {
int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
@SuppressWarnings("unchecked")
// 初始化数组
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
table = tab = nt;
// 初始化完成后,sizeCtl变成需要扩容时的阈值
sc = n - (n >>> 2);
}
} finally {
sizeCtl = sc;
}
break;
}
}
return tab;
}
从initTable函数中可以看到,是通过sizeCtl去检查是否有其它线程正在进行初始化。如果sizeCtl为-1,说明有其它线程正在进行初始化,那么当前线程挂起等待即可。如果是正数的话,那么就用CAS标记为-1,成功的话当前线程去初始化数组。初始化完成后就将sizeCtl设置成需要扩容的阈值。
5. put方法
public V put(K key, V value) {
return putVal(key, value, false);
}
// 添加键值对
final V putVal(K key, V value, boolean onlyIfAbsent) {
if (key == null || value == null) throw new NullPointerException();
int hash = spread(key.hashCode()); // 计算哈希值
int binCount = 0;
for (Node<K,V>[] tab = table;;) {
Node<K,V> f; int n, i, fh;
// 如果没有初始化,就进行初始化
if (tab == null || (n = tab.length) == 0)
tab = initTable();
// 计算要插入的位置,如果这个位置是空的
else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
// 直接CAS插入newNode即可
if (casTabAt(tab, i, null,
new Node<K,V>(hash, key, value, null)))
break; // no lock when adding to empty bin
}
// 如果发现要查询的桶正在进行迁移,可以进入去帮助迁移
else if ((fh = f.hash) == MOVED)
tab = helpTransfer(tab, f);
else {
V oldVal = null;
synchronized (f) { // 对要查询的桶加锁
if (tabAt(tab, i) == f) {
if (fh >= 0) {
binCount = 1; // 记录节点的数量
for (Node<K,V> e = f;; ++binCount) {
K ek;
// 如果找到了一样的key,就进行覆盖
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
oldVal = e.val;
if (!onlyIfAbsent)
e.val = value;
break;
}
Node<K,V> pred = e;
// 如果遍历到最后一个都没有找到
if ((e = e.next) == null) {
// 尾插法插入新节点到最后
pred.next = new Node<K,V>(hash, key,
value, null);
break;
}
}
}
// 如果是红黑树,就插入到红黑树中
else if (f instanceof TreeBin) {
Node<K,V> p;
binCount = 2;
if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
value)) != null) {
oldVal = p.val;
if (!onlyIfAbsent)
p.val = value;
}
}
}
}
if (binCount != 0) {
// 如果桶中节点的个数超过阈值,且大于最小树化阈值
if (binCount >= TREEIFY_THRESHOLD)
treeifyBin(tab, i); // 转换成红黑树
if (oldVal != null)
return oldVal;
break;
}
}
}
addCount(1L, binCount); // 增加计数并检查是否需要扩容
return null;
}
扩容的方法流程并不是很复杂,我们梳理下整个流程:
- 如果数组没有初始化,就先对数据进行初始化;
- 计算哈希值,找到对应的桶;
- 如果这个桶是空的,就不需要加锁,直接放入即可;
- 如果这个桶非空,找到一样的key的话就直接覆盖。没找到的话就创建新的节点插入;
- 最后检查是否需要树化和扩容;
6. 扩容方法
// addCount扩容方法
private final void addCount(long x, int check) {
CounterCell[] as; long b, s;
// 这一部分代码主要是完成put方法后更新计数器
// 如果计数器初始化过,或者CAS设置baseCount成功
if ((as = counterCells) != null ||
!U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
CounterCell a; long v; int m;
boolean uncontended = true;
// 随机分配计数器中的一个桶进行增加数量
if (as == null || (m = as.length - 1) < 0 ||
(a = as[ThreadLocalRandom.getProbe() & m]) == null ||
!(uncontended =
U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
fullAddCount(x, uncontended);
return;
}
if (check <= 1)
return;
s = sumCount();
}
// 这一部分代码主要是完成put方法后检查是否需要扩容
if (check >= 0) {
Node<K,V>[] tab, nt; int n, sc;
// 如果需要进行扩容
while (s >= (long)(sc = sizeCtl) && (tab = table) != null &&
(n = tab.length) < MAXIMUM_CAPACITY) {
int rs = resizeStamp(n);
// 有扩容线程正在工作
if (sc < 0) {
if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
transferIndex <= 0)
break;
if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
transfer(tab, nt); // 迁移数组
}
// 没有扩容线程正在工作
else if (U.compareAndSwapInt(this, SIZECTL, sc,
(rs << RESIZE_STAMP_SHIFT) + 2))
transfer(tab, null); // 迁移数组
s = sumCount();
}
}
}
// tryPresize扩容方法
private final void tryPresize(int size) {
// 确定要扩容的大小必须为2的n次幂
int c = (size >= (MAXIMUM_CAPACITY >>> 1)) ? MAXIMUM_CAPACITY :
tableSizeFor(size + (size >>> 1) + 1);
int sc;
while ((sc = sizeCtl) >= 0) {
Node<K,V>[] tab = table; int n;
// 如果说没有初始化过
if (tab == null || (n = tab.length) == 0) {
n = (sc > c) ? sc : c;
if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
try {
if (table == tab) {
@SuppressWarnings("unchecked")
// 创建新的数组
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
table = nt;
sc = n - (n >>> 2); // 设置阈值
}
} finally {
sizeCtl = sc;
}
}
}
// 如果已经达到最大容量了,就不进行扩容了
else if (c <= sc || n >= MAXIMUM_CAPACITY)
break;
else if (tab == table) {
int rs = resizeStamp(n);
// 有扩容线程正在工作
if (sc < 0) {
Node<K,V>[] nt;
if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
transferIndex <= 0)
break;
// 进行迁移
if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
transfer(tab, nt);
}
// 没有扩容线程正在工作
else if (U.compareAndSwapInt(this, SIZECTL, sc,
(rs << RESIZE_STAMP_SHIFT) + 2))
transfer(tab, null);
}
}
}
在ConcurrentHashMap的代码中,是有两个方法会进行扩容的:
- addCount方法:在put()元素之后,会调用addCount方法进行扩容。
- tryPresize方法:当尝试转换红黑树时发现没有超过转换红黑树的最小阈值时会进入tryPresize方法进行扩容。此外当调用putAll方法加入大量元素时也会调用tryPresize进行扩容。
接下来,我们继续看transfer方法,迁移节点到新的数组:
private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
int n = tab.length, stride;
// stride是每个CPU分配迁移桶的个数
if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
stride = MIN_TRANSFER_STRIDE; // subdivide range
if (nextTab == null) { // 如果还没有初始化
try {
@SuppressWarnings("unchecked")
// 创建容量为原来2倍的数组
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
nextTab = nt;
} catch (Throwable ex) { // try to cope with OOME
sizeCtl = Integer.MAX_VALUE;
return;
}
nextTable = nextTab;
transferIndex = n; // 转移下标
}
int nextn = nextTab.length;
// 转移节点
ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);
boolean advance = true; // 标识是否能向前推进
boolean finishing = false; // 标识是否完成
for (int i = 0, bound = 0;;) { // 从i开始递减,到bound
Node<K,V> f; int fh;
while (advance) { // 如果能够继续向前推进
int nextIndex, nextBound;
if (--i >= bound || finishing) // 如果到达本次迁移的边界或已完成
advance = false; // 向前推进标识符设置为false
else if ((nextIndex = transferIndex) <= 0) { // 扩容结束了
i = -1;
advance = false; // 向前推进标识符设置为false
}
else if (U.compareAndSwapInt
(this, TRANSFERINDEX, nextIndex,
nextBound = (nextIndex > stride ?
nextIndex - stride : 0))) { // 领取新的任务
// 每次领任务都会减stride,将stride个桶分配给CPU
bound = nextBound; // 新的边界
i = nextIndex - 1; // 下一个转移的位置
advance = false; // 将向前推进标识符设置为false
}
}
if (i < 0 || i >= n || i + n >= nextn) { // 检查本轮扩容是否结束
int sc;
if (finishing) { // 如果整个扩容都结束
nextTable = null;
table = nextTab; // 将table指向新的数组
sizeCtl = (n << 1) - (n >>> 1); // 设置阈值
return;
}
// 如果本轮结束后,整个扩容结束了
if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)
return;
finishing = advance = true;
i = n; // 再检查一遍
}
}
else if ((f = tabAt(tab, i)) == null) // 如果要迁移的节点为null
advance = casTabAt(tab, i, null, fwd); // 直接标识已经迁移了
else if ((fh = f.hash) == MOVED) // 如果发现已经迁移过了
advance = true; // 可以继续向前推进
else { // 还没有迁移过
synchronized (f) {
if (tabAt(tab, i) == f) {
Node<K,V> ln, hn;
if (fh >= 0) {
int runBit = fh & n;
// lastRun代表之后的节点在新数组中都是同一个桶
Node<K,V> lastRun = f;
// 遍历桶中的元素
for (Node<K,V> p = f.next; p != null; p = p.next) {
int b = p.hash & n;
if (b != runBit) { // 如果和lastRun不一致
runBit = b;
lastRun = p;
}
}
if (runBit == 0) { // 如果lastRun之后都是存储在低位
ln = lastRun; // 低位链表
hn = null;
}
else { // 如果lastRun之后都是存储在高位
hn = lastRun; // 高位链表
ln = null;
}
// 从第一个节点到lastRun
for (Node<K,V> p = f; p != lastRun; p = p.next) {
// 重新计算哈希值
int ph = p.hash; K pk = p.key; V pv = p.val;
if ((ph & n) == 0) // 低位链表
ln = new Node<K,V>(ph, pk, pv, ln);
else // 高位链表
hn = new Node<K,V>(ph, pk, pv, hn);
}
setTabAt(nextTab, i, ln); // 新数组中设置低位链表
setTabAt(nextTab, i + n, hn); // 新数组中设置高位链表
setTabAt(tab, i, fwd); // 设置旧数组中的位置为转移过了
advance = true; // 可以继续推进
}
else if (f instanceof TreeBin) { // 如果是红黑树
TreeBin<K,V> t = (TreeBin<K,V>)f;
TreeNode<K,V> lo = null, loTail = null;
TreeNode<K,V> hi = null, hiTail = null;
int lc = 0, hc = 0;
for (Node<K,V> e = t.first; e != null; e = e.next) {
int h = e.hash;
TreeNode<K,V> p = new TreeNode<K,V>
(h, e.key, e.val, null, null);
if ((h & n) == 0) { // 存储在低位
if ((p.prev = loTail) == null)
lo = p;
else
loTail.next = p;
loTail = p;
++lc;
}
else { // 存储在高位
if ((p.prev = hiTail) == null)
hi = p;
else
hiTail.next = p;
hiTail = p;
++hc;
}
}
// 如果节点数目小于6,转换为链表,否则转换为红黑树
ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
(hc != 0) ? new TreeBin<K,V>(lo) : t;
hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
(lc != 0) ? new TreeBin<K,V>(hi) : t;
setTabAt(nextTab, i, ln); // 新数组中设置低位链表
setTabAt(nextTab, i + n, hn); // 新数组中设置高位链表
setTabAt(tab, i, fwd); // 标记原数组中的位置为转移节点
advance = true;
}
}
}
}
}
}
这个transfer方法是ConcurrentHashMap1.8中的精华,它允许多个线程同时进行协助扩容,利用stride变量每次为一个线程分配多个需要迁移的桶,当线程迁移完成后,又继续去领取。这种迁移方式能够在很大程度上提高迁移的效率。并且在进行迁移的时候,只需要锁住正在迁移的节点,不需要像ConcurrentHashMap1.7一样要锁整个Segment。并发扩容的思想如下图所示:
对于迁移过程中的低位链表和高位链表的示意图如下:
此外,当你进行添加、删除节点的时候,如果发现正在进行扩容,可以通过helpTransfer方法来帮助扩容:
final Node<K,V>[] helpTransfer(Node<K,V>[] tab, Node<K,V> f) {
Node<K,V>[] nextTab; int sc;
// 如果发现节点正在进行迁移
if (tab != null && (f instanceof ForwardingNode) &&
(nextTab = ((ForwardingNode<K,V>)f).nextTable) != null) {
int rs = resizeStamp(tab.length);
while (nextTab == nextTable && table == tab &&
(sc = sizeCtl) < 0) {
if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
sc == rs + MAX_RESIZERS || transferIndex <= 0)
break;
if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) {
transfer(tab, nextTab); // 进入扩容的方法
break;
}
}
return nextTab;
}
return table;
}
7. get方法
public V get(Object key) {
Node<K,V>[] tab; Node<K,V> e, p; int n, eh; K ek;
int h = spread(key.hashCode()); // 计算哈希值
if ((tab = table) != null && (n = tab.length) > 0 &&
(e = tabAt(tab, (n - 1) & h)) != null) {
if ((eh = e.hash) == h) { // 如果第一个位置就是
if ((ek = e.key) == key || (ek != null && key.equals(ek)))
return e.val; // 直接返回
}
else if (eh < 0) // 如果发现正在进行transfer或树化,那就去新数组或树中查找
return (p = e.find(h, key)) != null ? p.val : null;
while ((e = e.next) != null) { // 遍历桶中的元素
if (e.hash == h && // 找到一样的key
((ek = e.key) == key || (ek != null && key.equals(ek))))
return e.val;
}
}
return null;
}
// get方法发现正在进行迁移,去新数组上寻找
Node<K,V> find(int h, Object k) {
Node<K,V> e = this; // 新数组
if (k != null) {
do {
K ek;
// 遍历寻找到key一样的
if (e.hash == h &&
((ek = e.key) == k || (ek != null && k.equals(ek))))
return e;
} while ((e = e.next) != null);
}
return null;
}
get方法就比较简单,不需要进行额外的加锁,直接去数组的桶中寻找。如果发现节点正在迁移,那就去新数组中寻找。
8. remove方法
// 删除节点
public V remove(Object key) {
return replaceNode(key, null, null);
}
final V replaceNode(Object key, V value, Object cv) {
int hash = spread(key.hashCode()); // 计算哈希值
for (Node<K,V>[] tab = table;;) {
Node<K,V> f; int n, i, fh;
// 如果数组或桶不存在,就不删除了
if (tab == null || (n = tab.length) == 0 ||
(f = tabAt(tab, i = (n - 1) & hash)) == null)
break;
// 如果发现正在迁移就去帮助迁移
else if ((fh = f.hash) == MOVED)
tab = helpTransfer(tab, f);
else {
V oldVal = null;
boolean validated = false;
synchronized (f) { // 加锁
if (tabAt(tab, i) == f) {
if (fh >= 0) {
validated = true;
for (Node<K,V> e = f, pred = null;;) { // 遍历
K ek;
// 找到一样的key
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
V ev = e.val;
if (cv == null || cv == ev ||
(ev != null && cv.equals(ev))) {
oldVal = ev;
if (value != null)
e.val = value;
else if (pred != null) // 删除中间节点
pred.next = e.next;
else // 删除头节点
setTabAt(tab, i, e.next);
}
break;
}
pred = e;
if ((e = e.next) == null)
break;
}
}
// 如果是红黑树
else if (f instanceof TreeBin) {
validated = true;
TreeBin<K,V> t = (TreeBin<K,V>)f;
TreeNode<K,V> r, p;
if ((r = t.root) != null &&
(p = r.findTreeNode(hash, key, null)) != null) {
V pv = p.val;
if (cv == null || cv == pv ||
(pv != null && cv.equals(pv))) {
oldVal = pv;
if (value != null)
p.val = value;
// 删除红黑树上的节点
else if (t.removeTreeNode(p))
setTabAt(tab, i, untreeify(t.first));
}
}
}
}
}
if (validated) {
if (oldVal != null) {
if (value == null)
addCount(-1L, -1);
return oldVal;
}
break;
}
}
}
return null;
}
删除节点的方法也不难,加锁去桶里寻找进行删除即可。
9. 计数方法
在单线程情况下,对于Map中元素个数的计算是很简单的,只需要用一个变量记录即可。但是在多线程情况下,对于数目的计算则是很困难的,因此每时每刻都可能有线程在更新。在ConcurrentHashMap1.7中采用的计数方式是在一定的重试次数内,如果发现和上一次修改次数一样,说明计数就正确,否则重新计数。如果超过一定重试次数,就会将所有Segment锁起来,然后进行计数,导致并发效率低。
在ConcurrentHashMap1.8中再次对计数的方式进行改进,利用分而治之的思想,利用多个子计数器来进行计数,然后再将全部加起来。具体思路如下图所示:
我们先来看下计数器的代码:
@sun.misc.Contended static final class CounterCell {
volatile long value;
CounterCell(long x) { value = x; }
}
实际上每个计数器就是维护了一个long类型的变量,代表这个计数器中计数的数目。
然后,ConcurrentHashMap中有一个成员变量:
// 计数器数组
private transient volatile CounterCell[] counterCells;
是计数器数组,包含了多个计数器。
我们回到put方法调用的addCount方法中,来看下是如何进行计数的(只截取和计数有关的部分):
private final void addCount(long x, int check) {
CounterCell[] as; long b, s;
if ((as = counterCells) != null ||
!U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
CounterCell a; long v; int m;
boolean uncontended = true;
// 如果计数器数组没有初始化或者随机分配的计数器没初始化
// 获取计数器竞争太大导致CAS失败,则进行计数器扩容
if (as == null || (m = as.length - 1) < 0 ||
(a = as[ThreadLocalRandom.getProbe() & m]) == null ||
!(uncontended =
U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
// 调用fullAddCount进行初始化或者进行扩容
fullAddCount(x, uncontended);
return;
}
if (check <= 1)
return;
s = sumCount();
}
}
在代码中,如果发现计数器没有初始化或者竞争计数器失败,就会调用fullAddCount进行初始化或者扩容:
private final void fullAddCount(long x, boolean wasUncontended) {
int h;
// 随机分配一个计数器
if ((h = ThreadLocalRandom.getProbe()) == 0) {
ThreadLocalRandom.localInit(); // force initialization
h = ThreadLocalRandom.getProbe();
wasUncontended = true;
}
boolean collide = false; // 标记是否冲突
for (;;) {
CounterCell[] as; CounterCell a; int n; long v;
// 如果计数器数组存在,初始化过了
if ((as = counterCells) != null && (n = as.length) > 0) {
// 分配的计数器不存在
if ((a = as[(n - 1) & h]) == null) {
if (cellsBusy == 0) { // 计数器不繁忙
CounterCell r = new CounterCell(x); // 创建新的计数器
if (cellsBusy == 0 && // 设置计数器状态繁忙
U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
boolean created = false;
try { // Recheck under lock
CounterCell[] rs; int m, j;
// 判断计数器不存在
if ((rs = counterCells) != null &&
(m = rs.length) > 0 &&
rs[j = (m - 1) & h] == null) {
rs[j] = r; // 将新创建的计数器加入
created = true;
}
} finally {
cellsBusy = 0; // 释放计数器繁忙状态
}
if (created)
break;
continue; // Slot is now non-empty
}
}
collide = false;
}
else if (!wasUncontended) // CAS already known to fail
wasUncontended = true; // Continue after rehash
// 到这里说明计数器桶存在,尝试CAS增加计数值
else if (U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))
break;
else if (counterCells != as || n >= NCPU)
collide = false; // At max size or stale
else if (!collide)
collide = true;
// CAS增加计数失败,尝试进行扩容
else if (cellsBusy == 0 &&
U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
try {
if (counterCells == as) {// Expand table unless stale
CounterCell[] rs = new CounterCell[n << 1]; // 扩容为2倍
for (int i = 0; i < n; ++i)
rs[i] = as[i]; // 计数器迁移
counterCells = rs;
}
} finally {
cellsBusy = 0; // 标识为不繁忙
}
collide = false;
continue; // Retry with expanded table
}
h = ThreadLocalRandom.advanceProbe(h);
}
// 计数器数组不存在
else if (cellsBusy == 0 && counterCells == as &&
U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
boolean init = false;
try { // Initialize table
if (counterCells == as) {
CounterCell[] rs = new CounterCell[2]; // 创建计数器数组,初始化两个计数器
rs[h & 1] = new CounterCell(x);
counterCells = rs;
init = true;
}
} finally {
cellsBusy = 0; // 标识计数器不繁忙
}
if (init)
break;
}
// 所有都失败了,就利用BASECOUNT来进行计数
else if (U.compareAndSwapLong(this, BASECOUNT, v = baseCount, v + x))
break; // Fall back on using base
}
}
我们来梳理下整个fullAddCount的流程:
- 如果计数器数组初始化过,则进入第二步,没初始化过就进入第三步。
- 如果分配的计数器不存在,就创建一个新的计数器,并加入到计数器数组中。如果分配的计数器存在,但是尝试CAS更新计数失败,就进行扩容,扩容为原来的两倍。
- 因为计数器数组没有初始化过,就创建包含两个计数器的计数器数组进行计数;
- 如果上面的情况都无法完成,就利用BASECOUNT进行计数。
更新了计数器之后,再利用sumCount方法遍历每个计数器得到计数总数:
final long sumCount() {
CounterCell[] as = counterCells; CounterCell a;
long sum = baseCount; // 以baseCount为基础
if (as != null) {
for (int i = 0; i < as.length; ++i) { // 遍历每一个计数器
if ((a = as[i]) != null)
sum += a.value; // 计数求和
}
}
return sum;
}
我们可以看到是利用baseCount为基数,然后遍历计数器求和。但是通过这种方式,还是无法得到精确的数字,只能得到个大概的估计值。 这是保证了并发度的情况下,我们所需要容忍的。
ConcurrentHashMap 1.7 和 1.8对比
最后,我们来对比下1.7和1.8版本:
- 1.7版本采用数组+链表+分段锁的方式,1.8版本采用数组+链表+红黑树+桶锁的方式。相比之下1.8版本的锁粒度更小,并发程度也就更高;
- 1.8版本引入了红黑树进行优化,当一个桶节点过多时,会相比于1.7版本有更好的查询效率;
- 1.8版本的计数器采用了分而治之的思想,将计数器拆分成多个。1.7版本则是当重试次数超过阈值,会锁整个ConcurrentHashMap;
参考文章:
关于jdk1.8中ConcurrentHashMap的方方面面
翻了ConcurrentHashMap1.7 和1.8的源码,我总结了它们的主要区别。
ConcurrentHashMap是如何实现线程安全的
并发编程——ConcurrentHashMap#transfer() 扩容逐行分析
并发容器之ConcurrentHashMap(JDK 1.8版本)