文章目录
- 简介
- 数据库连接池
- C3P0
- DBCP
- BoneCP
- 精简的设计
- 字节码优化
- ArrayList-->FastList
- ConcurrentBag
- 代理实现
- Statement Cache
- Scheduler quanta
- CPU缓存行失效
- 优雅的实现
- 获取连接
- 初始化池对象
- 连接池管理
- 连接池扩充
- 连接池缩容
- 连接池关闭
- ConcurrentBag
- 连接池参数
- 总结
- 参考
简介
天不生我李淳罡,剑道万古如长夜。
Hikari [hi·ka·'lē] 是日语“光”的意思。HikariCP的卖点是快、简洁、可靠,整体非常轻量,只有130Kb左右。
HikariCP的出现可以说是颠覆了连接池领域,直接将性能做到极致,从此之后再无人可做出大的突破。就连曾经风靡一时的BoneCP也主动停止维护,让贤于他。而且,在Spring Boot 2.0中,HikariCP凭借其优越的性能取代Tomcat成为默认的数据库连接池。
数据库连接池
以史为鉴,可以知兴替。
连接池(Connection Pool)技术的核心思想就是:连接复用,通过建立一个数据库连接池以及一套连接使用、分配、管理策略,使得该连接池中的连接可以得到高效、安全的复用,避免了数据库连接频繁建立、关闭的开销。
在不使用连接池的情况下,每次请求都需要经过如下过程:
- 与MySQL服务器三次握手建立TCP连接;
- 登录认证建立MySQL连接;
- 执行SQL语句获取结果;
- 断开与MySQL的连接;
- 关闭TCP连接。
使用连接池后只需要在初始化时执行一次建立TCP连接和登录认证流程,之后连接池会维护指定数量的连接资源,当有请求时直接从连接池中获取连接执行SQL即可,SQL执行完毕后归还连接给连接池,而无需关闭连接,待应用关闭时由连接池负责将申请的连接资源释放即可。
数据库连接池相关技术发展至今已非常成熟了,使用比较广泛的有BoneCP、DBCP、C3P0、Druid等。
C3P0
C3P0(Why C3P0)在很长一段时间内一直是Java领域内数据库连接池的代名词,当年盛极一时的Hibernate都将其作为内置的数据库连接池,可见业内对它还是认可的。C3P0的功能简单易用、稳定性好,但是性能上的缺点却让它最终被打入冷宫。C3P0的性能差到即便是和同时代的产品相比它也是垫底的,更不用和Druid、HikariCP相比了。正常来讲,有问题很正常,改就是了,但C3P0最致命的问题就是架构设计过于复杂,让重构变成了一项不可能完成的任务。最终,性能有硬伤的C3P0也彻底的退出了历史舞台。
DBCP
DBCP(DataBase Connection Pool)属于Apache顶级项目Commons中的核心子项目,在Apache的生态圈中的影响十分广泛,Tomcat就在其内部集成了DBCP,实现JPA规范的OpenJPA,也默认集成了DBCP。但DBCP并不是独立实现连接池功能的,它内部依赖于Commons中的另一个子项目pool。连接池最核心的“池”,就是由pool组件提供的,因此,DBCP的性能实际上就是pool的性能。但有很长一段时间pool都停留在1.x版本,导致DBCP也更新乏力,许多依赖DBCP的应用在遇到性能瓶颈后别无选择,只能将其替换掉。Tomcat就在其7.0版本中重新设计开发了一套连接池–Tomcat JDBC Pool。
2013年9月Commons-Pool 2.0 版本发布,事情迎来转机,DBCP 2.0版本在2014年2月发布,基于新的线程模型全新设计的“池”让DBCP重焕青春,虽然和新一代的连接池相比仍有一定差距,但DBCP 2.x版本已经稳稳达到了和新一代产品同级别的性能指标。
然而长时间的等待已经消磨了用户的耐心,DBCP2与其他产品相比没有任何突出优势。试问,谁会在有选择的前提下,去选择那个并不优秀的呢?如果有,那也只是情怀吧。
BoneCP
在本文开头已提到过BoneCP,它是一个以高性能著称的JDBC连接池。BoneCP的高性能一是源自其极简的设计,整个产品只有几百k大小,二是其重构了内部pool的设计,减少了锁的使用。这两点优化原则,几乎适用于所有的连接池产品。
值得一提的是,BoneCP本身并不“健全”,它的很多特征都依赖于Guava,因此也和DBCP一样面临更新乏力的问题。但现在这些都不重要了,BoneCP引以为傲的性能已被HikariCP全面超越,已主动让贤于与自己设计思路类似的HikariCP。
精简的设计
有道无术,术尚可求,有术无道,止于术。
HikariCP崇尚的设计美学是极简主义,遵循KISS (Keep It Simple Stupid)
的设计哲学。
对连接池来说,要想在性能上做出改进,最直接的做法可能是优化获取连接的逻辑。然而HikariCP获取连接的逻辑和其他连接池的差别并不大,其大部分性能提升来自于对Connection
,Statement
等的委托(delegates)的优化。具体包括以下几个方面。
字节码优化
HikariCP的作者研究了编译器的字节码输出,JIT的汇编输出,将关键链路限制在JIT内联阈值以下。并且扁平化了继承层次结构,隐藏了成员变量,消除了类型转换。
ArrayList–>FastList
减少ConnectionProxy中用来追踪Statement实例的ArrayList实例,当一个Statement被关闭的时候,必须将它从集合中移出,当集合被关闭的时候,必须迭代集合将其中打开的所有statement实例,然后才能清空集合。Java中的ArrayList在get(int index)调用时会进行边界检测,HikariCP中能保证边界,因此这个检查就是无意义的。
另外,在remove(Object)的实现中会从头到尾进行扫描,然而,在JDBC中通常会在使用完后立即关闭Statements或按打开的相反顺序进行关闭,因此从尾部开始扫描性能会更好。因此,HikariCP中用自定义的FastList来替换ArrayList,FastList不进行边界检测且删除元素时从尾部开始扫描。
ConcurrentBag
HikariCP中包含了一个自定义的无锁集合ConcurrentBag。无锁设计、ThreadLocal缓存、
Queue-stealing、hand-off优化使得ConcurrentBag具有高并发、低延迟、最小化伪共享(false-sharing)的特性。
ConcurrentBag是HikariCP连接池中存放连接的容器,属于核心内容,其具体实现我们留到后面代码分析时再进行详细说明。
代理实现
为了为 Connection、Statement 和 ResultSet 实例生成代理,HikariCP 最初使用了一个以ConnectionProxy形式维护在静态字段 (PROXY_FACTORY) 中的单例工厂。有十几个类似的方法:
public final PreparedStatement prepareStatement(String sql, String[] columnNames) throws SQLException
{
return PROXY_FACTORY.getProxyPreparedStatement(this, delegate.prepareStatement(sql, columnNames));
}
用单例工厂生成的字节码如下:
public final java.sql.PreparedStatement prepareStatement(java.lang.String, java.lang.String[]) throws java.sql.SQLException;
flags: ACC_PRIVATE, ACC_FINAL
Code:
stack=5, locals=3, args_size=3
0: getstatic #59 // Field PROXY_FACTORY:Lcom/zaxxer/hikari/proxy/ProxyFactory;
3: aload_0
4: aload_0
5: getfield #3 // Field delegate:Ljava/sql/Connection;
8: aload_1
9: aload_2
10: invokeinterface #74, 3 // InterfaceMethod java/sql/Connection.prepareStatement:(Ljava/lang/String;[Ljava/lang/String;)Ljava/sql/PreparedStatement;
15: invokevirtual #69 // Method com/zaxxer/hikari/proxy/ProxyFactory.getProxyPreparedStatement:(Lcom/zaxxer/hikari/proxy/ConnectionProxy;Ljava/sql/PreparedStatement;)Ljava/sql/PreparedStatement;
18: return
可以看到先是getstatic调用拿到静态字段PROXY_FACTORY的值,最后invokevirtual调用ProxyFactory实例中的getProxyPreparedStatement()方法。
去掉单例工厂将其替换为有着静态方法(由Javassist生成具体实现)的final类后,Java代码变为:
public final PreparedStatement prepareStatement(String sql, String[] columnNames) throws SQLException
{
return ProxyFactory.getProxyPreparedStatement(this, delegate.prepareStatement(sql, columnNames));
}
生成的字节码变为:
private final java.sql.PreparedStatement prepareStatement(java.lang.String, java.lang.String[]) throws java.sql.SQLException;
flags: ACC_PRIVATE, ACC_FINAL
Code:
stack=4, locals=3, args_size=3
0: aload_0
1: aload_0
2: getfield #3 // Field delegate:Ljava/sql/Connection;
5: aload_1
6: aload_2
7: invokeinterface #72, 3 // InterfaceMethod java/sql/Connection.prepareStatement:(Ljava/lang/String;[Ljava/lang/String;)Ljava/sql/PreparedStatement;
12: invokestatic #67 // Method com/zaxxer/hikari/proxy/ProxyFactory.getProxyPreparedStatement:(Lcom/zaxxer/hikari/proxy/ConnectionProxy;Ljava/sql/PreparedStatement;)Ljava/sql/PreparedStatement;
15: areturn
两相对比可看出:
-
getstatic调用没有了;
-
invokevirtual调用替换成了更容易被JVM优化的invokestatic;
-
堆栈大小从5个元素减少到4个元素。这是因为invokevirtual会先将ProxyFactory实例压入堆栈,当调用getProxyPreparedStatement()时再将其弹出。
Statement Cache
在许多连接池中都会提供PreparedStatement缓存,而HikariCP中则去掉了这个缓存。在连接池层使用statement cache是一个反面模式 (Anti-pattern),与driver层提供的缓存相比,会对应用程序的性能产生负面影响。
在连接池层 PreparedStatements 只能缓存每个连接。如果有 250 个经常执行的查询和一个包含 20 个连接的池,则数据库需要保留 5000 个查询执行计划。同理,连接池必须缓存这么多 PreparedStatements 及其相关的对象图。
大多数主流数据库 JDBC 驱动程序(PostgreSQL、Oracle、MySQL等)已经有一个可以配置的statement缓存。 JDBC 驱动程序处于利用数据库特定功能的独特位置,几乎所有缓存实现都能够跨连接共享执行计划。这意味着这 250 个经常执行的查询会在数据库中产生恰好 250 个执行计划,而不是内存中的 5000 个语句和相关的执行计划。聪明的实现甚至不会在驱动程序级别的内存中保留 PreparedStatement 对象,而只是将新实例附加到现有计划 ID。
Scheduler quanta
当‘一次’运行的线程数超过CPU核数时,操作系统会给每个线程分配一个小的运行时间片,并在线程间切换调度(这样一次切换叫做一个quantum)。当一个时间片用完后,在调度器再给该线程分配下一个时间片之前可能要等待一段‘长’的时间,因此,一个线程要尽可能在他自己的时间片里完成,并避免锁强制它放弃自己的时间片就显得至关重要,否则就会有大的性能损耗。
CPU缓存行失效
CPU缓存行失效是除了锁之外,另一个会导致线程无法在一个quanta中完成的因素。
当线程被调度器再次唤起时,它确实获得了再次在其经常访问的数据上运行的机会,然而这些数据可能已经不再位于CPU的L1 或 L2 缓存中了,因为我们没法控制下次调度会被分配给哪个CPU核。
优雅的实现
“Simplicity is prerequisite for reliability.”
- Edsger Dijkstra
HikariCP 的源码少且精,可读性非常高。如果你想提升自己的Java多线程编程能力,可以来看看HikariCP的源码。
@startuml
participant HikariDataSource [
=HikariDataSource
----
""Hikari池化数据源类""
]
participant HikariPool [
=HikariPool
----
""连接池管理类""
]
participant ConcurrentBag [
=ConcurrentBag
----
""连接对象存放类""
]
participant ProxyFactory [
=ProxyFactory
----
""JDBC接口代理类""
]
HikariDataSource -> HikariPool: getConnection
HikariPool -> ConcurrentBag: borrow
ConcurrentBag -> HikariPool: PoolEntry对象
HikariPool -> ProxyFactory: createProxyConnection
ProxyFactory -> HikariPool: ProxyConnection
HikariPool -> HikariDataSource: Connection
@enduml
获取连接
- HikariDataSource#getConnection
@startuml
start
if (数据源是否被关闭?) then (关闭)
:抛异常;
end
else
if (fastPathPool是否为空?) then (非空)
:getConnection返回;
end
else (为空)
if (pool是否为空?) then (为空)
:validate校验配置合法性;
:HikariPool初始化;
:sealed=true标记当前数据源的pool已初始化;
else (非空)
endif
endif
:pool.getConnection;
stop
@enduml
说明:
-
该方法的主体是使用 双重检查锁定模式 获取HikariPool对象,如果对象为空则进行初始化,实际getConnection逻辑在HikariPool中;
-
从上述流程图可知HikariCP是在第一次getConnection时对HikariPool进行的初始化,一旦启动相应配置就固化了(sealed),不允许再次修改(除非使用HikariConfigMXBean方法);
-
HikariPool类型的对象有两个:fastPathPool和pool,如果使用的是HikariDataSource的默认构造函数则fastPathPool为null,如果使用指定配置的构造函数则pool和fastPathPool等价。二者的差别在于getConnection时pool会因为延迟初始化检查导致性能有轻微下降。
- HikariPool#getConnection
@startuml
start
:获取连接池挂起恢复锁(suspendResumeLock);
repeat
:connectionBag.borrow获取连接(poolEntry);
if (poolEntry为null) then
:中断循环,抛超时异常;
end
else
if (poolEntry被标记为evicted 或 (距上次访问时间大于alive时间 且 连接dead)) then
:关闭连接;
:超时时间更新:减去已消耗时间;
else
:记录borrow状态;
:将连接包装为ProxyConnection返回;
end
endif
endif
repeat while (timeout > 0)
:记录borrow超时状态、抛异常、释放锁;
stop
@enduml
说明:
-
suspendResumeLock:通过对信号量进行简单封装实现了一个锁,用于控制获取连接的频率。如果isAllowPoolSuspension配置为true则创建一个最大并发量10000的Semaphore,否则给一个假的锁实现。
-
获取poolEntry后判断其是否可用时,如果连接没有被标记为evicted,则会进行连接判活,判断连接距上次访问的时间间隔是否大于500ms(默认值,可配置),如果大于则继续判断连接是否dead。从中可看出HikariCP的连接判活还是挺频繁的,这说明连接判活对其性能影响并不大,这也是得益于其无锁实现。
-
isConnectionDead方法用于判断连接是否已失活,需要注意的是这里的连接不是PoolEntry对象,而是其持有的实际驱动的Connection对象。如果支持jdbc4协议,则执行驱动程序的isValid判断,否则执行开销较大的createStatement+execute的逻辑。比较取巧的是HikariCP是通过connectionTestQuery是否为null来判断是否支持jdbc4协议的。因此,如果是jdbc4驱动的话不要配置connectionTestQuery,这个配置只是给旧的不支持Connection.isValid的版本使用的。
-
HikariPool中维护了一个ConcurrentBag,里面存放着连接对象PoolEntry,getConnection逻辑就是从ConcurrentBag中borrow一个可用的连接PoolEntry。
初始化池对象
public HikariPool(final HikariConfig config)
{
super(config); // 继承自PoolBase,基本属性设置
// initializeDataSource 底层DataSource设置,jdbcUrl、username、password等
this.connectionBag = new ConcurrentBag<>(this); // 真正存放连接的对象,核心!
this.suspendResumeLock = config.isAllowPoolSuspension() ? new SuspendResumeLock() : SuspendResumeLock.FAUX_LOCK;
this.houseKeepingExecutorService = initializeHouseKeepingExecutorService();
// 初始化一个ScheduledExecutorService,用于Housekeeping:
// 连接泄露检测、定时清理闲置连接、延迟关闭连接
checkFailFast(); // initializationFailTimeout>0 则进行DB连通性检测
if (config.getMetricsTrackerFactory() != null) {
setMetricsTrackerFactory(config.getMetricsTrackerFactory());
}
else {
setMetricRegistry(config.getMetricRegistry());
}
setHealthCheckRegistry(config.getHealthCheckRegistry());
handleMBeans(this, true);
ThreadFactory threadFactory = config.getThreadFactory();
final int maxPoolSize = config.getMaximumPoolSize();
LinkedBlockingQueue<Runnable> addConnectionQueue = new LinkedBlockingQueue<>(maxPoolSize);
// 用于添加连接的线程池,核心和最大线程数为1,队列为addConnectionQueue
this.addConnectionExecutor = createThreadPoolExecutor(addConnectionQueue, poolName + " connection adder", threadFactory, new CustomDiscardPolicy());
// 用于异步关闭物理连接的线程池,核心和最大线程数为1,maxPoolSize大小的LinkedBlockingQueue
this.closeConnectionExecutor = createThreadPoolExecutor(maxPoolSize, poolName + " connection closer", threadFactory, new ThreadPoolExecutor.CallerRunsPolicy());
// 初始化连接泄露告警器
this.leakTaskFactory = new ProxyLeakTaskFactory(config.getLeakDetectionThreshold(), houseKeepingExecutorService);
// 定时任务,30s调度一次HouseKeeper,用于淘汰连接、维护最小连接数
this.houseKeeperTask = houseKeepingExecutorService.scheduleWithFixedDelay(new HouseKeeper(), 100L, housekeepingPeriodMs, MILLISECONDS);
if (Boolean.getBoolean("com.zaxxer.hikari.blockUntilFilled") && config.getInitializationFailTimeout() > 1) {
addConnectionExecutor.setMaximumPoolSize(Math.min(16, Runtime.getRuntime().availableProcessors()));
addConnectionExecutor.setCorePoolSize(Math.min(16, Runtime.getRuntime().availableProcessors()));
final long startTime = currentTime();
while (elapsedMillis(startTime) < config.getInitializationFailTimeout() && getTotalConnections() < config.getMinimumIdle()) {
quietlySleep(MILLISECONDS.toMillis(100));
}
addConnectionExecutor.setCorePoolSize(1);
addConnectionExecutor.setMaximumPoolSize(1);
}
}
说明:
-
上述主体逻辑为初始化连接池属性、DataSource属性、初始化存放连接的ConcurrentBag、初始化用于管理连接的线程池和调度任务、初始化监控器。
-
如果设置了初始化超时时间,则会进行联通检测/连接池预热,具体流程为创建一个连接对象PoolEntry,放到连接池的connectionBag中,代码见checkFailFast。
连接池管理
HikariPool负责对连接池的管理,包括连接池扩充、连接池缩容、连接池关闭等。
连接池扩充
连接池在淘汰连接、关闭连接后,以及连接池从挂起变为启用之前,会进行连接池扩充,以保证minimumIdle。
private synchronized void fillPool(final boolean isAfterAdd)
{
// 获取空闲连接数:统计connectionBag中状态为STATE_NOT_IN_USE的连接数
final var idle = getIdleConnections();
final var shouldAdd = getTotalConnections() < config.getMaximumPoolSize() && idle < config.getMinimumIdle();
if (shouldAdd) {
final var countToAdd = config.getMinimumIdle() - idle;
for (int i = 0; i < countToAdd; i++)
// 异步添加连接,postFillPoolEntryCreator与poolEntryCreator的区别只是日志前缀
// addConnectionExecutor 核心和最大线程数为1
addConnectionExecutor.submit(isAfterAdd ? postFillPoolEntryCreator : poolEntryCreator);
}
else if (isAfterAdd) {
logger.debug("{} - Fill pool skipped, pool has sufficient level or currently being filled.", poolName);
}
}
// PoolEntryCreator的核心逻辑是创建连接createPoolEntry,并将其加到connectionBag中
// 创建链接对象的逻辑如下
private PoolEntry createPoolEntry()
{
try {
// 从DataSource获取物理连接,设置到poolEntry
final var poolEntry = newPoolEntry();
// maxLifetime>0 houseKeepingExecutorService延迟执行MaxLifetimeTask任务
final var maxLifetime = config.getMaxLifetime();
if (maxLifetime > 0) {
// variance up to 2.5% of the maxlifetime
final var variance = maxLifetime > 10_000 ? ThreadLocalRandom.current().nextLong( maxLifetime / 40 ) : 0;
final var lifetime = maxLifetime - variance;
poolEntry.setFutureEol(houseKeepingExecutorService.schedule(new MaxLifetimeTask(poolEntry), lifetime, MILLISECONDS));
}
// houseKeepingExecutorService定期执行KeepaliveTask
final long keepaliveTime = config.getKeepaliveTime();
if (keepaliveTime > 0) {
// variance up to 10% of the heartbeat time
final var variance = ThreadLocalRandom.current().nextLong(keepaliveTime / 10);
final var heartbeatTime = keepaliveTime - variance;
poolEntry.setKeepalive(houseKeepingExecutorService.scheduleWithFixedDelay(new KeepaliveTask(poolEntry), heartbeatTime, heartbeatTime, MILLISECONDS));
}
return poolEntry;
}
catch (ConnectionSetupException e) {
if (poolState == POOL_NORMAL) { // we check POOL_NORMAL to avoid a flood of messages if shutdown() is running concurrently
logger.error("{} - Error thrown while acquiring connection from data source", poolName, e.getCause());
lastConnectionFailure.set(e);
}
}
catch (Exception e) {
if (poolState == POOL_NORMAL) { // we check POOL_NORMAL to avoid a flood of messages if shutdown() is running concurrently
logger.debug("{} - Cannot acquire connection from data source", poolName, e);
}
}
return null;
}
- MaxLifetimeTask 与 KeepaliveTask
// 当连接poolEntry达到设置的maxLifetime时,执行任务将其从连接池中剔除
private final class MaxLifetimeTask implements Runnable
{
private final PoolEntry poolEntry;
MaxLifetimeTask(final PoolEntry poolEntry)
{
this.poolEntry = poolEntry;
}
public void run()
{
if (softEvictConnection(poolEntry, "(connection has passed maxLifetime)", false /* not owner */)) {
// 旧连接被剔除后,判断是否需要添加新连接
addBagItem(connectionBag.getWaitingThreadCount());
}
}
}
@Override
public void addBagItem(final int waiting)
{
// 当等待线程数大于添加连接的queue size时,增加一个添加连接的任务
// 本来需要waiting个连接,现在可用连接又被淘汰了一个,需要再添加一个
if (waiting > addConnectionExecutor.getQueue().size())
addConnectionExecutor.submit(poolEntryCreator);
}
// 定时执行连接保活任务
private final class KeepaliveTask implements Runnable
{
private final PoolEntry poolEntry;
KeepaliveTask(final PoolEntry poolEntry)
{
this.poolEntry = poolEntry;
}
public void run()
{
// 将连接置为reserved,如果物理连接可用再将连接置为可用
// 如果物理连接不可用,则将该连接淘汰,并按需要添加新连接
if (connectionBag.reserve(poolEntry)) {
if (isConnectionDead(poolEntry.connection)) {
softEvictConnection(poolEntry, DEAD_CONNECTION_MESSAGE, true);
addBagItem(connectionBag.getWaitingThreadCount());
}
else {
connectionBag.unreserve(poolEntry);
logger.debug("{} - keepalive: connection {} is alive", poolName, poolEntry.connection);
}
}
}
}
连接池缩容
在连接池初始化时,会初始化一个默认30s执行一次的houseKeeperTask,用于定期将连接池中失效的连接清理掉,同时保持要求的最小空闲链接数。
// HouseKeeper.run()
/**
* 时间回拨:由于网络时间校准或人工设置,导致系统时间跳回到过去的某个时间
* 时间回拨检测,如果时间回退到过去则淘汰所有连接
* 如果时间往前拨,则不做处理,因为这除了会加速连接被淘汰外无其他影响
*/
// Detect retrograde time, allowing +128ms as per NTP spec.
if (plusMillis(now, 128) < plusMillis(previous, housekeepingPeriodMs)) {
logger.warn("{} - Retrograde clock change detected (housekeeper delta={}), soft-evicting connections from pool.",
poolName, elapsedDisplayString(previous, now));
previous = now;
softEvictConnections();
return; // 发生时间回拨时任务中断执行,不再执行后续清理和扩充逻辑
}
else if (now > plusMillis(previous, (3 * housekeepingPeriodMs) / 2)) {
// No point evicting for forward clock motion, this merely accelerates connection retirement anyway
logger.warn("{} - Thread starvation or clock leap detected (housekeeper delta={}).", poolName, elapsedDisplayString(previous, now));
}
previous = now;
if (idleTimeout > 0L && config.getMinimumIdle() < config.getMaximumPoolSize()) {
logPoolState("Before cleanup ");
// 取出所有空闲连接,淘汰其中已超时连接
final var notInUse = connectionBag.values(STATE_NOT_IN_USE);
var maxToRemove = notInUse.size() - config.getMinimumIdle();
for (PoolEntry entry : notInUse) {
if (maxToRemove > 0 && elapsedMillis(entry.lastAccessed, now) > idleTimeout && connectionBag.reserve(entry)) {
closeConnection(entry, "(connection has passed idleTimeout)");
maxToRemove--;
}
}
logPoolState("After cleanup ");
}
else
logPoolState("Pool ");
// 可能淘汰了一些连接,因此需要触发连接池扩充流程
fillPool(true); // Try to maintain minimum connections
- 淘汰连接
// 淘汰连接:撤销连接泄露报警任务,软淘汰连接
public void evictConnection(Connection connection)
{
var proxyConnection = (ProxyConnection) connection;
proxyConnection.cancelLeakTask();
try {
softEvictConnection(proxyConnection.getPoolEntry(), "(connection evicted by user)", !connection.isClosed() /* owner */);
}
catch (SQLException e) {
// unreachable in HikariCP, but we're still forced to catch it
}
}
// 软淘汰一个连接,将连接标记为evict
// 如果是连接的owner 或者 连接是空闲的(可以被置为reserved),则进一步关闭连接
private boolean softEvictConnection(final PoolEntry poolEntry, final String reason, final boolean owner)
{
poolEntry.markEvicted();
if (owner || connectionBag.reserve(poolEntry)) {
closeConnection(poolEntry, reason);
return true;
}
return false;
}
// 关闭连接
void closeConnection(final PoolEntry poolEntry, final String closureReason)
{
// 将待关闭连接poolEntry从connectionBag移除
if (connectionBag.remove(poolEntry)) {
// 关闭poolEntry连接:endOfLife、keepalive、connection置为null
final var connection = poolEntry.close();
// 线程池异步关闭物理连接
closeConnectionExecutor.execute(() -> {
quietlyCloseConnection(connection, closureReason);
if (poolState == POOL_NORMAL) {
fillPool(false); // 关闭连接后需要扩充连接池保证最小连接数
}
});
}
}
连接池关闭
// 关闭pool,关闭所有空闲连接,关闭活动连接
public synchronized void shutdown() throws InterruptedException
{
try {
poolState = POOL_SHUTDOWN; // 关闭连接池
if (addConnectionExecutor == null) { // pool never started
return;
}
logPoolState("Before shutdown ");
// 关闭houseKeeperTask,都要关了,没必要维护最小空闲连接了,直接在后面关闭所有连接即可
if (houseKeeperTask != null) {
houseKeeperTask.cancel(false);
houseKeeperTask = null;
}
// 关闭所有空闲连接,对connectionBag中的每个连接执行softEvictConnection逻辑
// owner参数为false,所以只有实际是空闲的才会执行closeConnection逻辑,否则只是标记为evicted
softEvictConnections();
// 关闭添加连接线程池
addConnectionExecutor.shutdown();
if (!addConnectionExecutor.awaitTermination(getLoginTimeout(), SECONDS)) {
logger.warn("Timed-out waiting for add connection executor to shutdown");
}
// 关闭HouseKeeping线程池
destroyHouseKeepingExecutorService();
// 关闭存放连接的connectionBag,closed=true
connectionBag.close();
// 派一组刺客杀掉所有连接,形象的名字:)
final var assassinExecutor = createThreadPoolExecutor(config.getMaximumPoolSize(), poolName + " connection assassinator",
config.getThreadFactory(), new ThreadPoolExecutor.CallerRunsPolicy());
try {
final var start = currentTime();
do {
// 干掉所有活着的连接:关闭poolEntry、中止物理连接、从connectionBag中移除poolEntry
abortActiveConnections(assassinExecutor);
// 再次关闭所有空闲连接
softEvictConnections();
// 给10s时间赶尽杀绝
} while (getTotalConnections() > 0 && elapsedMillis(start) < SECONDS.toMillis(10));
}
finally {
assassinExecutor.shutdown(); // 关闭刺客组织
if (!assassinExecutor.awaitTermination(10L, SECONDS)) {
logger.warn("Timed-out waiting for connection assassin to shutdown");
}
}
shutdownNetworkTimeoutExecutor();
closeConnectionExecutor.shutdown();
if (!closeConnectionExecutor.awaitTermination(10L, SECONDS)) {
logger.warn("Timed-out waiting for close connection executor to shutdown");
}
}
finally {
logPoolState("After shutdown ");
handleMBeans(this, false);
metricsTracker.close();
}
}
ConcurrentBag
ConcurrentBag是一个专为连接池设计的并发包,它比LinkedBlockingQueue 和 LinkedTransferQueue有着更好的性能。它使用ThreadLocal来尽可能避免锁定,但当ThreadLocal列表中没有可用元素时也会去扫描公共集合。也就是说ThreadLocal列表中未使用的元素可以被其他borrowing线程窃取。
需要注意的是从ConcurrentBag中borrow出去的元素实际上并没有从容器中移除,也就是说即使没有引用也不会发生GC,因此必须注意对借出的对象进行requite,否则会导致内存泄露。只有remove方法才能将对象从ConcurrentBag中完全移除。
public class ConcurrentBag<T extends IConcurrentBagEntry> implements AutoCloseable
{
private static final Logger LOGGER = LoggerFactory.getLogger(ConcurrentBag.class);
// 存放连接PoolEntry的地方
// CopyOnWriteArrayList线程安全,读操作无锁,写操作通过创建新副本实现
// 读写分离,适用于读多写少场景
private final CopyOnWriteArrayList<T> sharedList;
// 是否使用WeakReference?默认false
private final boolean weakThreadLocals;
// 线程维度的缓存,从sharedList中拿到的连接会缓存到线程里,borrow时先从缓存里
private final ThreadLocal<List<Object>> threadList;
// 内部接口,HikariPool实现了该接口,用于添加连接,即sharedList添加元素
private final IBagStateListener listener;
// 当前获取不到连接而发生阻塞的线程数
private final AtomicInteger waiters;
private volatile boolean closed;
// 0容量的同步队列,即产即销,用于做信息传递。
// 不能insert元素除非有另一个线程正在尝试remove它。
// 公平模式:先进先出queue,非公平模式:后进先出stack
private final SynchronousQueue<T> handoffQueue;
// 内部接口,PoolEntry实现了该接口,用于控制连接的状态,通过状态标记实现了无锁设计
public interface IConcurrentBagEntry
{
int STATE_NOT_IN_USE = 0;
int STATE_IN_USE = 1;
int STATE_REMOVED = -1;
int STATE_RESERVED = -2;
boolean compareAndSet(int expectState, int newState);
void setState(int newState);
int getState();
}
// 省略...
}
-
borrow
borrow用于在指定时间内从ConcurrentBag中获取一个连接,如果超时未拿到则返回null。会先从缓存ThreadLocal中拿,无可用连接时再从公共sharedList中拿,sharedList也无可用连接,则需要新增连接。
public T borrow(long timeout, final TimeUnit timeUnit) throws InterruptedException { // Try the thread-local list first final var list = threadList.get(); // 从后往前判断,因为回收连接时add操作会将刚回收的放在末尾,尾部拿到空闲连接的概率大 for (int i = list.size() - 1; i >= 0; i--) { final var entry = list.remove(i); // 先remove,回收时再add进来 @SuppressWarnings("unchecked") final T bagEntry = weakThreadLocals ? ((WeakReference<T>) entry).get() : (T) entry; if (bagEntry != null && bagEntry.compareAndSet(STATE_NOT_IN_USE, STATE_IN_USE)) { return bagEntry; } } // Otherwise, scan the shared list ... then poll the handoff queue final int waiting = waiters.incrementAndGet(); // threadList没拿到连接waiters就会加1 try { for (T bagEntry : sharedList) { if (bagEntry.compareAndSet(STATE_NOT_IN_USE, STATE_IN_USE)) { // If we may have stolen another waiter's connection, request another bag add. if (waiting > 1) { // 有阻塞线程在等着获取连接,更新添加连接的队列大小为waiting-1 listener.addBagItem(waiting - 1); // 当前线程已获取连接,所以要-1 } return bagEntry; } } // 当前线程未获取连接,等待添加的连接数仍然是waiting listener.addBagItem(waiting); // 到这里才开始算timeout,也就是timeout控制的是新增连接线程池添加连接的超时时间 // 不包括从ThreadLocal缓存和sharedList中获取连接的耗时,但注意while循环条件判断时做了10ms的偏移 timeout = timeUnit.toNanos(timeout); do { final var start = currentTime(); final T bagEntry = handoffQueue.poll(timeout, NANOSECONDS); if (bagEntry == null || bagEntry.compareAndSet(STATE_NOT_IN_USE, STATE_IN_USE)) { return bagEntry; } timeout -= elapsedNanos(start); } while (timeout > 10_000); return null; // 仍然没拿到连接,返回null,HikariPool抛超时异常 } finally { waiters.decrementAndGet(); // 当前请求处理结束,waiters-1 } }
-
add
添加一个新的连接对象到ConcurrentBag中,给其他等待创建连接的线程borrow。addConnectionExecutor异步添加连接时会调用该方法。
handoffQueue起到线程间通信的作用,offer只有在有另一个线程等着接收时才能将元素给出去,即产即销保证borrow线程能及时拿到需要的连接。
public void add(final T bagEntry) { if (closed) { LOGGER.info("ConcurrentBag has been closed, ignoring add()"); throw new IllegalStateException("ConcurrentBag has been closed, ignoring add()"); } sharedList.add(bagEntry); // 添加到公共sharedList里 // spin until a thread takes it or none are waiting // 自旋等待直到有线程来获取连接或者已没有等待线程 // while+Thread.yield 是一种常见的实现自旋的写法,在开源框架中常见其身影 while (waiters.get() > 0 && bagEntry.getState() == STATE_NOT_IN_USE && !handoffQueue.offer(bagEntry)) { // 自旋等待让出CPU,让同优先级或更高优先级的线程先执行,提高cpu利用率 Thread.yield(); } }
-
requite
getConnection时会先将物理连接包装为PoolEntry放进ConcurrentBag,获取连接时从ConcurrentBag中取出后会再包装为ProxyConnection对象给使用方,使用方使用完后会触发ProxyConnection中的close方法回收连接。
ProxyConnection.close 方法会触发PoolEntry.recycle 方法将poolEntry归还给pool,会调用HikariPool.recycle方法,该方法实际执行的是ConcurrentBag.requite方法,requite方法负责将用完的连接重置为可用状态,达到连接复用的目的。
如果被borrow的连接没有被requite则会导致内存泄露。
public void requite(final T bagEntry) { bagEntry.setState(STATE_NOT_IN_USE); // 将连接状态置为空闲 // 如果存在等待线程,将归还的连接直接通过handoffQueue传递给borrow使用 // borrow时threadList中没有waiters会+1 for (var i = 0; waiters.get() > 0; i++) { if (bagEntry.getState() != STATE_NOT_IN_USE || handoffQueue.offer(bagEntry)) { return; } // 每255次进行一次10ms的小憩,防止并发过高waiters过多导致cpu占用过高 else if ((i & 0xff) == 0xff) { // LockSupport.parkNanos挂起当前线程不再被调度, // 直到超时或有其他线程调用unpark释放该线程的许可(HikariCP中没有调用unpark) parkNanos(MICROSECONDS.toNanos(10)); } else { // 当前循环没有线程poll连接,让出CPU,等下一个循环 Thread.yield(); } } // 没有waiters且没有线程使用该连接,则将该空闲连接放到threadLocalList尾部 final var threadLocalList = threadList.get(); if (threadLocalList.size() < 50) { threadLocalList.add(weakThreadLocals ? new WeakReference<>(bagEntry) : bagEntry); } }
注意:add中while+yield与requite中for+yield+parkNanos的区别 #1305
-
requite中的连接(bagEntry)在自旋时可能改变状态,这是因为其引用可能被其他线程的ThreadLocal所持有,因此在自旋时必须检查连接状态。而这种状态改变是不可能发生在add中的,因为add时不会有其他线程拥有这个新连接的引用。
-
对于yield和yield+parkNanos,循环中只有yield可能导致一个CPU核被打到100%,在requite中可能有很多线程,需要偶尔调用parkNanos以防跨多核使用CPU。在add时因为添加连接是一个单线程,所以影响并不大。
-
-
remove
从connectionBag中移除连接,只有在要关闭对应物理连接时才会执行该方法。
public boolean remove(final T bagEntry) { // 只有borrow出去的或reserve的连接能被removed // 通过CAS将状态置为REMOVED if (!bagEntry.compareAndSet(STATE_IN_USE, STATE_REMOVED) && !bagEntry.compareAndSet(STATE_RESERVED, STATE_REMOVED) && !closed) { LOGGER.warn("Attempt to remove an object from the bag that was not borrowed or reserved: {}", bagEntry); return false; } // 从sharedList中移出元素,CopyOnWriteArrayList.remove final boolean removed = sharedList.remove(bagEntry); if (!removed && !closed) { LOGGER.warn("Attempt to remove an object from the bag that does not exist: {}", bagEntry); } // 从ThreadLocal中移出元素 threadList.get().remove(bagEntry); return removed; }
-
reserve & unreserve
// reserve用于使连接不可被borrow,主要用于清理空闲连接时使用 public boolean reserve(final T bagEntry) { // 只能将空闲连接置为reserved return bagEntry.compareAndSet(STATE_NOT_IN_USE, STATE_RESERVED); } // unreserve用于KeepaliveTask,poolEntry会先reserve // 如果物理连接仍然可用,则通过unreserve再将其变为空闲连接 public void unreserve(final T bagEntry) { if (bagEntry.compareAndSet(STATE_RESERVED, STATE_NOT_IN_USE)) { // spin until a thread takes it or none are waiting while (waiters.get() > 0 && !handoffQueue.offer(bagEntry)) { Thread.yield(); } } else { LOGGER.warn("Attempt to relinquish an object to the bag that was not reserved: {}", bagEntry); } }
-
状态流转
连接池参数
- 常用参数
参数名 | 参数说明 | 默认值 | 参考值 |
---|---|---|---|
minimumIdle | 连接池空闲连接最小数量。 | 10 | 5 |
maximumPoolSize | 最大连接数。 | 10 | 10 |
connectionTimeout | 如果不能获取可用连接,抛出异常前的等待时间。 | 30000 | 6000 |
idleTimeout | 空闲连接可被清理的超时时长。真正清理是在守护线程(默认每30s一次)执行时进行。不小于10000 | 600000 | 600000 |
maxLifetime | 连接的生命时长(毫秒),超时而且没被使用则被释放,不小于30000 | 1800000 | 1800000 |
leakDetectionThreshold | 连接出池超时记录时长。默认为0关闭泄露检测,如果要开启需>2000 | 0 | 300000 |
validationTimeout | 检验连接存活超时时长,如果断开不能重连,可以尝试调这个值 | 5000 | 5000 |
dataSource.cachePrepStmts | 缓存PreparedStatement | false | false |
dataSource.prepStmtCacheSize | PreparedStatement缓存大小 | 25 | 25 |
dataSource.prepStmtCacheSqlLimit | driver缓存的statement 最大长度 | 256 | 256 |
dataSource.useServerPrepStmts | 新版MySQL支持服务端prepared statements,提升性能 | false | false |
connectionTestQuery | driver支持JDBC4,强烈建议不设置 | 空 | 空 |
注:所有时间参数单位都是毫秒;minimumIdle、maximumPoolSize按场景调整。
- 连接池不建议设置太大,主要有如下几点原因:
- 连接池内的连接是复用的;
- 对于分库分表数据源,对每个库都会维持一份连接池;
- 对于读写分离的数据源,对每个库会分别维持一份读连接池、一份写连接池,相当于每个库的连接数都翻倍了;
- 需要考虑服务所在机器的承受能力,比如一个服务有32个库,每个库连接池最大连接数是100,则单个服务实例最大会有3200个数据库连接,也即仅数据库连接就占用了3200个线程;
- 需要考虑数据库服务端能够承受的最大连接数,比如一个服务设置连接池最大连接数是100,如果服务部署了200台,则数据库服务端单个库的连接数最大将达到20000个,数据库服务端可能会被打挂。
总结
本文介绍了一个牛气哄哄的命名为光的数据库连接池:HikariCP。先简单回顾了数据库连接池的发展,然后重点针对HikariCP的设计哲学和代码实现进行深入学习,在如诗一般的代码中领略大师的智慧和思想,受益匪浅。
参考
-
为什么需要数据库连接池_MySQL_赖猫_InfoQ写作社区
-
源码详解系列(八)–全面讲解HikariCP的使用和源码
-
终于理解Spring Boot 为什么青睐HikariCP了,图解的太透彻了!
-
伪共享(false sharing),并发编程无声的性能杀手 - cyfonly - 博客园
-
【并发编程】不存储元素的同步阻塞队列SynchronousQueue