DoppelGanger++:面向数据库重放的快速依赖关系图生成

news2024/12/22 22:41:55

doi:DoppelGanger++: Towards Fast Dependency Graph Generation for Database Replay,点击前往


文章目录

  • 1 简介
  • 2 架构概述
  • 3 依赖关系图
    • 3.1 符号和问题定义
    • 3.2 无 IT(k) 图
    • 3.3 无 OT 图表
    • 3.4 无 OTIT 图表
    • 3.5 无 IT[OT] 图表
    • 3.6 输出确定性保证
  • 4 重复向后扫描 (RBSS)
  • 5 状态单向扫描 (SSFS)
    • 5.1 生成 G~IT~
    • 5.2 生成 G~OT~
    • 5.3 生成 G~IT[OT]~
  • 6 并行化 SSFS
  • 7 实验
    • 7.1 实验设置
    • 7.2 TPC-C 的实验结果
    • 7.3 真实客户工作负载的实验结果
    • 7.4 内存使用情况
    • 7.5 PSSFS 的可扩展性
  • 8 相关工作
  • 9 结论
  • 致谢
  • REFERENCES

数据库重放系统 (DRS) 捕获生产系统上的工作负载,然后在测试系统中重放它们以测试各种系统更改,从而在生产中实现它们之前避免任何风险。DRS 中的依赖图生成对于保持输出确定性同时最大化并发性至关重要。商业 DBMS 中部署的最先进的依赖图生成算法使用生成和修剪策略。

  • 它首先通过对工作负载中的每个请求执行向后扫描来生成依赖图。
  • 然后,它使用昂贵的传递性减少算法修剪所有冗余边。但是,我们注意到这会生成一个包含许多冗余边的大型依赖图,并且其最坏情况时间复杂度是工作负载中请求数量的平方。为了解决这些具有挑战性的问题,我们正式提出了四类 DRS 依赖图。
  • 然后,我们提出了一种有状态的单次前向扫描算法 SSFSstateful single forward scan,通过对所有请求执行单次扫描来生成任何类别的依赖图,同时简洁地维护状态。这里,状态是指为高效生成依赖关系图而存储和维护的信息。
  • 我们还提出了并行 SSFS,以利用多核 CPU 的计算能力,同时平衡负载。

我们在领先的商业 DBMS 中实现了我们的 DRS。使用 TPC-C、SD 基准和真实客户工作负载进行的大量实验表明,与最先进的技术相比,我们的 DRS 可将依赖关系图生成时间显著缩短两个数量级。

CCS 概念:信息系统 → 数据库实用程序和工具;数据库性能评估。

其他关键词和短语:数据库重放


1 简介

数据库重放系统 (DRS) 在测试系统中测试关系数据库系统。DRS 捕获生产系统上的工作负载,然后在测试系统中重放它们,以测试各种系统更改(例如硬件/软件升级),并避免任何风险,例如:

  • 性能回归
  • 错误
  • 在生产中实现之前出现新的资源争用点 [20, 28]

在这里,工作负载由用户请求组成,每个请求都包含带有会话 ID 的 SQL 语句。

输出确定性 [10] 确保捕获的工作负载的重放产生与原始运行相同的输出,即使由于硬件或软件更新而导致工作负载的物理计划发生变化。原始运行中两个相关请求之间的相对顺序必须在重放中保留。否则,重放不能保证产生与原始运行相同的输出。例如,在清单 1 中,Q1 在原始运行中先于 Q2 执行。假设两个查询均以自动提交模式执行。然而,在数据库重放期间,假设Q1 和 Q2 以相反的顺序重放。那么 Q2 的输出与原始运行的输出不同,这违反了输出确定性。

Listing 1. Query examples
Q1 : UPDATE emp SET salary = salary *1.1;
Q2 : SELECT * FROM emp WHERE salary > 60000;

最先进的 DRS 通过从捕获的工作负载生成依赖关系图并基于依赖关系图重放请求来确保输出确定性。这里,依赖关系图中的每个顶点对应于一个请求,并且一条边在两个请求之间施加了优先约束 [3, 28]。虽然可以通过在捕获时间内按相同顺序顺序重放请求来确保输出确定性,但这种简单的方法无法运行真实的重放,严重限制了并发性 [28]。相反,通过并行执行请求同时保留依赖关系图中的顺序,DRS 可以实现输出确定性,同时支持真实的并发重放。

主要数据库供应商支持 DRS [2, 3, 5, 38]。它们在数据库重放工作流中支持以下四个阶段:工作负载捕获、依赖关系图生成、工作负载重放和报告生成。

  1. 在第一阶段,DRS 记录工作负载中的所有请求,每个会话一个捕获文件。此步骤在生产系统中完成,而其他步骤通常在测试系统中完成,以避免干扰生产系统中正在运行的应用程序
  2. 在依赖关系生成阶段,它会生成一个依赖关系图,在请求之间施加优先约束以确保输出确定性
  3. 在工作负载重放阶段,它会使用最小依赖关系图和这些捕获文件重放捕获的工作负载
  4. 最后一步会生成有关系统更改之间任何差异的各种报告

请注意,将现有数据库实例迁移到目标系统的决定不能一次性做出;相反,需要连续执行捕获和重放,以使用各种工作负载测试目标系统。因此,减少生成时间至关重要,尽管依赖图生成是一个离线过程。

为了在最大化并发性的同时实现输出确定性,DRS 必须生成具有最短关键路径的最小依赖图the shortest critical path [39],并在此基础上重放工作负载。Morfonios 等人 [28] 提出了 RBSS,这是一种使用生成和修剪策略的高效依赖图生成算法。使用此策略,生成步骤通过使用向后扫描在其他会话中查找最新的依赖请求来生成每个顶点的传入边,而修剪步骤使用传递归约算法a transitive reduction algorithm修剪冗余边 [9]。如果在移除边后 𝑣 仍可从 𝑢 到达,则直接边 (𝑢, 𝑣) 是冗余的。该技术已在商用 DBMS [2] 中采用。

在这里插入图片描述

但是,RBSS 仍会生成包含许多冗余边的大型依赖图,尽管可以在生成步骤中过滤它们。例如,图 1 显示在代表性 ERP 工作负载 SD-Benchmark [4] 中,此依赖图 (标记为 GRBSS) 中的 99.6% 的边是冗余的。给定依赖图𝐺(𝑉 , 𝐸),当 |𝐸| >> |𝐸′| 时,计算其传递归约 𝐺𝑡𝑟(𝑉, 𝐸′) 可能很昂贵,因为 𝐸 中的所有冗余边都将被删除。

其次,由于对每个顶点重复进行反向扫描,RBSS 的时间复杂度可能为 𝑂(|𝑉|2)。具体来说,为了生成会话中每个顶点的入边,RBSS 需要向后扫描其他会话,直到在最坏情况下到达会话的开头。此外,向后扫描会访问许多不必要的会话。依赖图生成算法中的这种低效率显著增加了依赖图生成时间。因此,我们必须开发一种有效的算法来生成接近传递约简大小的依赖图。

RBSS 在捕获和重放管道中产生主要瓶颈,占总端到端时间的 50% 以上。由于我们的客户不断捕获和重放随时间变化的工作负载,以快速检查系统变化之间的任何差异,因此需要显著提高依赖关系图的生成速度。

为了正式解决这个问题,我们首先在依赖关系图中定义两种类型的主导冗余边(对象传递性object transitivity (OT) 和会话间传递性 inter-session transitivity (IT))。

  • OT 是指由于路径上的所有请求都访问一个公共对象而导致的冗余。考虑图 1 中的依赖关系图。顶点的标签表示对对象的操作(更新、选择或提交)。例如,请求 𝑟1 的标签(即 𝑈1)表示对对象 1 的更新语句。例如,(𝑟6, 𝑟9) 由于 OT 而冗余,因为存在一条路径 (𝑟6, 𝑟8, 𝑟9),其中所有请求都访问公共对象 2。
  • IT 指的是由于通过两个会话中的请求的路径而导致的冗余,即使某些请求访问不同的对象。考虑会话 2 和 3。然后,边 (𝑟5, 𝑟12) 由于 IT 而冗余,因为存在通过这些会话的路径 (𝑟5, 𝑟6, 𝑟8, 𝑟12)。请注意,𝑟5 和 𝑟12 访问对象 1,而另一个请求访问对象 2。虽然我们可以将 IT 的定义推广到三个或更多会话,但修剪这种冗余将需要昂贵的连接操作,这甚至比传递闭包transitive closure更昂贵。这促使我们在依赖图生成中平衡紧凑性效率。我们将在第 3.2 节中详细阐述这个问题。

为了通过系统地探索 IT 和 OT 的所有组合的设计空间(即分类法)来找到最合适的依赖图,我们接下来提出了四个新的依赖图:IT(k)-free, OT-free, OTIT-free, and IT[OT]-free。我们将在第 3 节中正式定义这些图。我们的形式化可以解释:

  • 无 IT(k) 图是 [28] 的广义图
  • OT-free 图是另一种新的依赖图,用于捕获通过公共对象的edges的传递属性
  • IT[OT]-free 图兼具两者的优势。我们发现,IT[OT]-free 图是平衡效率和大小的最理想图

表 1. 具有 16 个服务器实例的 SD 基准中每个依赖图中冗余边的比例:

在这里插入图片描述

为了避免重复向后扫描,我们提出了一种新颖、高效的依赖图生成算法,称为有状态单向前向扫描stateful single forward scan (SSFS)。SSFS 对所有请求执行单次前向扫描,同时保持状态。通过分析冗余的定义,我们根据依赖图类型简洁地维护状态。我们还提出了 SSFS 的并行版本,其中请求按时间范围水平划分。并行 SSFS 分层合并这些本地依赖图以生成全局依赖图,实现线性加速。

我们的贡献总结如下:

  1. 我们在领先的商业 DBMS 中实现了 DoppelGanger++,这是一个包含所有提议技术的 DRS。因此,DoppelGanger++ 可以支持现实世界的客户工作负载
  2. 我们通过系统地探索主要冗余边的设计空间,正式定义了四种依赖图的分类法。我们还提供了一个维恩图来说明这些依赖图之间的包含关系
  3. 我们提出了一种新颖的依赖生成算法 SSFS 来扫描一次请求,即避免二次复杂度并实现线性复杂度。请注意,SSFS 可以生成分类法中的任何类型的依赖图
  4. 通过分析所有依赖图,我们建议使用无 IT[OT] 图的 SSFS,这既实现了依赖图的紧凑性,又实现了算法的效率
  5. 我们还提出了 SSFS 的并行版本,这进一步缩短了依赖图生成时间
  6. 使用 TPC-C、SD 基准和真实客户工作负载进行的实验表明,SSFS 的性能比 RBSS 高出两个数量级。我们还表明,并行 SSFS 实现了几乎线性的加速

本文的其余部分组织如下。第 2 节描述了 DoppelGanger++ 的整体架构。第 3 节提出了依赖图的分类。在第 4 节中,我们回顾了 RBSS 及其与第 3 节中定义的依赖图的关系。第 5 节提出了我们的 SSFS 算法,并展示了 SSFS 如何生成所有类型的依赖图。我们还解释了为什么无 IT[OT] 图是平衡效率和大小的理想依赖图。第 6 节提出了 SSFS 的并行版本。为了证实我们的主张,第 7 节使用两个基准和真实客户工作负载对 SSFS 与 RBSS 进行了广泛的实验评估。第 8 节将我们的贡献与相关工作进行了比较,第 9 节总结了本文。


2 架构概述

DoppelGanger++ 是一款基于最先进的商业 DBMS 构建的成熟 DRS。该系统为用户提供了一种多用途测试工具,允许他们捕获源系统上运行的工作负载,并在目标系统上重放捕获的工作负载,并提供详细的重放分析报告。用户可以通过可视化工具轻松管理整个过程。图 2 说明了 DoppelGanger++ 的整体架构,包括以下四个步骤:

在这里插入图片描述

  1. 捕获步骤以轻量级方式自动捕获工作负载信息,包括执行上下文信息和在生产系统上运行的请求。捕获的信息(例如 SQL 数据和事务数据)根据其类型进行分类并存储在不同的文件中。在此步骤中,DoppelGanger++ 备份当前快照,以便用于重放。

  2. 控制系统中的预处理步骤接收捕获的工作负载文件作为输入,并生成依赖关系图文件以实现一致的工作负载重放 [28]。输入文件包含捕获时每个数据库会话发出的请求信息。生成的文件可以重播多次。生成的依赖关系图文件是请求的序列化,其中每个请求都与其他并发会话中的依赖请求相关联。请注意,当我们使用最先进的 [28] 时,依赖关系图生成占用了总端到端时间的 50%,这是我们的动机。

  3. 重放步骤使用依赖关系图文件重放捕获的工作负载,同时保留目标系统上的事务顺序,该目标系统由备份的快照初始化。具体来说,加载器线程读取依赖关系图文件并将其加载到特定于会话的请求队列中。每个队列由控制执行时间的请求调度程序管理。然后,请求调度程序将请求从队列发送到执行线程。可以执行没有传入边incoming edges的请求。当非提交请求启动时,它会获取快照并删除其传出边outgoing edges。这可以成功完成长读取事务而不会阻止写入事务。另一方面,提交请求获取提交时间戳并删除传出边,从而允许成功提交。运行请求后,执行线程返回其结果。

  4. 分析步骤将重放结果与捕获结果进行比较,并生成可视化的分析报告。比较是从性能和一致性的角度进行的。对于性能比较,将测量系统级吞吐量、资源消耗和各个请求的执行时间。为进行一致性检查,我们会测量整体数据库状态和各个请求的执行结果。

虽然这超出了我们的范围,但 DoppelGanger++ 已经支持分布式环境中的数据库重放。我们的底层 DBMS 维护一个具有全局时间戳的协调器节点。因此,分布式数据库节点中执行的事务可以由相同的事务时间戳生成器排序,因此不需要更改依赖项生成。位于两个数据库节点中的对象之间的边在重放时实现为进程间通信调用。


3 依赖关系图

我们提出了一种正式分类法,使用所有会话间传递性 (IT) 和对象传递性 (OT) 组合的设计空间:无 IT(k) 图、无 OT 图、无 OTIT 图和无 IT[OT] 图。由于从工作负载生成的依赖关系图最终通过广泛的传递性减少进行修剪,因此我们需要找到一个可以通过顺序扫描有效生成的紧凑依赖关系图。基于我们正式的分类法,我们将在引理 1 中表明,RBSS 生成的依赖关系图是无 IT(1) 图的一个特例,因为它无法修剪某些边 (𝑟, 𝑟′),其中 𝑟 和 𝑟′ 之间有多个 IT 连接。

3.1 符号和问题定义

工作负载 W 被建模为有向图 Gini = (VR, εses),其中每个顶点对应 W 中的一个请求,每个边是会话中的一对连续请求(例如,图 1 中的 (𝑟2, 𝑟7))。Gini 称为初始图。此处,每个请求 𝑟 都与一个唯一时间戳 (𝑟.𝑡𝑠)、一个会话 ID (𝑟.𝑠𝑖𝑑) 以及由 𝑟 访问的一组对象 (𝑟.𝑜𝑏𝑗𝑠) 相关联。如果 𝑟 是提交请求,𝑟 .𝑜𝑏𝑗𝑠 表示已提交事务修改的所有对象的集合。例如,在图 1 中,𝑟5.𝑜𝑏𝑗𝑠 为 {1, 3},因为事务 𝑇 分别修改了 𝑟1 和 𝑟3 中的对象 1 和 3。𝑆 表示所有会话的集合,而 𝑂 表示工作负载中所有对象的集合。与 [28] 中一样,对象可以是表或表分区。请求分为非提交 (NC)(即 SELECT 或 UPDATE)和 提交 ( C ) 请求,从而使其更新永久生效。如果事务未更新任何对象,则其提交请求与其他会话中的请求没有任何依赖关系。因此,它在依赖关系图生成阶段被忽略,但在重放阶段仅在事务结束时重放。会话中的请求被限制为按时间戳的顺序重放,如 εses 中规定的那样。由于会话中的请求按时间戳顺序存储 [28],因此我们不需要明确存储 εses。为了便于解释,我们假设存在 𝑟0 和 𝑟∞,它们对应于虚拟的初始请求和最后一个请求。请注意,Gini = (VR, εses) 不是依赖关系图,因为它仅包含每个会话内的排序约束。表 2 显示了整篇论文中使用的符号。

在这里插入图片描述

我们首先定义谓词来定义其他依赖(二元binary)关系 [28]。

  • 考虑两个请求 𝑟, 𝑟′ ∈ VR。如果 𝑟.𝑡𝑠 < 𝑟′.𝑡𝑠,则谓词 𝑝𝑟𝑒𝑐𝑒𝑑𝑒𝑠(𝑟, 𝑟′) 返回 true,否则返回 false;
  • 我们定义优先依赖边precedence-dependent edges集合,ε𝑝𝑟𝑒 = {(𝑟, 𝑟′) ∈ VR2 | 𝑝𝑟𝑒𝑐𝑒𝑑𝑒𝑠(𝑟, 𝑟′)}。如果 𝑟 是提交请求,𝑐𝑜𝑚𝑚𝑖𝑡(𝑟) 返回 true,否则返回 false;
  • 我们定义提交相关边commit-dependent edges集合,ε𝑐𝑜𝑚 = {(𝑟, 𝑟′) ∈ ε𝑝𝑟𝑒 | 𝑐𝑜𝑚𝑚𝑖𝑡(𝑟) ∨ 𝑐𝑜𝑚𝑚𝑖𝑡(𝑟′)}。
  • 如果 𝑟 和 𝑟′ 访问一个共同的对象(即 𝑟.𝑜𝑏𝑗𝑠 ∩ 𝑟′.𝑜𝑏𝑗𝑠 ≠ ∅),则 𝑎𝑐𝑐𝑒𝑠𝑠_ 𝑐𝑜𝑚𝑚𝑜𝑛_𝑜𝑏𝑗(𝑟, 𝑟′) 返回 true,否则返回 false;
  • 我们定义一组与对象相关的边object-dependent edges,ε𝑜𝑏𝑗 = {(𝑟, 𝑟′) ∈ ε𝑝𝑟𝑒 | 𝑎𝑐𝑐𝑒𝑠𝑠_𝑐𝑜𝑚𝑚𝑜𝑛_𝑜𝑏𝑗(𝑟, 𝑟′)}。
  • 最后,我们定义碰撞相关边collision-dependent edges集合,εcol = ε𝑐𝑜𝑚 ∩ ε𝑜𝑏𝑗。当 (𝑟, 𝑟′) ∈ εcol 时,我们说 𝑟 与 𝑟′ 碰撞相关。

我们交替使用术语“依赖关系dependency relation”和“边集edge set”。

给定初始图 Gini = (VR, εses),依赖图生成算法根据其特定关系生成新的边集。例如,依赖图算法可以通过检查提交依赖关系和对象依赖关系来生成依赖图 Gcol = (VR, εcol)。

在这里插入图片描述

一个极端依赖图是完全有序的依赖图 Gtotal,它通过按时间戳递增顺序连接请求来构建。使用 Gtotal,VR 中的请求将按顺序执行,导致并发性严重受限 [28],因为 Gtotal 的关键路径是所有可能的依赖图中最长的。另一个极端图是最小依赖图 Gmin = (VR, εmin),通过它我们可以一致地重放 W 而无需任何不必要的同步开销。在这里,可以通过删除 εcol 中的所有冗余边来构建 Gmin,即通过对 Gcol 执行传递归约算法。现在,我们给出问题的正式定义:

问题定义 1:给定一个以初始图 Gini = (VR, εses) 为模型的工作负载,有效生成一个紧凑的依赖图 G = (VR, E),使得 G𝑡𝑟 = G𝑡𝑟𝑐𝑜𝑙

我们现在根据每个依赖图从 Gcol 中修剪的冗余边的类型提供依赖图的概述。图 3 显示了依赖图之间的包含关系。请注意,每个依赖图都避免了来自 Gcol 的特定类型的冗余边。无 IT 图 GIT 和无 OT 图 GOT 分别避免了由于 IT 和 OT 而导致的冗余边,如第 1 节所述。由 [28] 中的生成步骤(即在传递归约之前)生成的 GRBSS 是无 IT 图的一个特例。无 OTIT 图 GOTIT 是避免由于 IT 或 OT 而导致的冗余边的图。无 IT[OT] 的图 GIT[OT] 是先修剪由于 OT 而导致的冗余边,然后再修剪由于 IT 而导致的冗余边的图。𝐸(GIT[OT]) ⊇ 𝐸(GOTIT),因为 GIT[OT] 在修剪由于 OT 而导致的冗余边后会失去一些 IT 连通性。

例如,在图 1 中,GIT 避开了所有红色和绿色虚线边,而 GOT 避开了所有蓝色和绿色虚线边。GOTIT 避开了除 (𝑟5, 𝑟10) 之外的所有虚线边。请注意 (𝑟5, 𝑟13) ∉ 𝐸(GOTIT),但 (𝑟5, 𝑟13) ∈ 𝐸(GIT[OT])。这是因为,GIT[OT] 首先删除了 (𝑟6, 𝑟9),因此路径 (𝑟5, 𝑟6, 𝑟9, 𝑟11, 𝑟13) 在生成的依赖图中消失。边 (𝑟5, 𝑟10) 是冗余的,这是由于除 IT 和 OT 之外的可达性所致。但是,这种类型的冗余相对较少见;在表 1 中,GOTIT 中只有 5.3% 的边是冗余的。修剪这些边需要计算传递闭包transitive closure。因此,我们在生成步骤中允许这样的边。

3.2 无 IT(k) 图

我们首先在两个不同的会话中定义 k 前向路径k-forward的概念。然后,我们使用 k 前向路径定义无 IT(k) 图。在 IT(k)-free 图中,我们特别讨论了两个特殊图:无 IT(1) 图和无 IT(∞) 图。最后,我们解释了为什么我们只考虑两个不同的会话。

为了在 εcol 中定义冗余边,但在无 IT(k) 图中不定义冗余边,我们首先定义 k 前向路径的概念。给定两个顶点,会话 𝑠 中的 𝑟 和会话 𝑠′ 中的 𝑟′(𝑠 ≠ 𝑠′),一条路径 (𝑟, 𝑟𝑠1, · · · , 𝑟s𝑖, 𝑟𝑠′1, · · ·𝑟𝑠′𝑘, 𝑟′) (𝑖 ≥ 0, 𝑘 ≥ 0,𝑖 + 𝑘 ≥ 1) 被称为 εcol ∪ εses 中从 𝑟 到 𝑟′ 的 k-forward-path,其中所有 𝑟𝑠 都在会话 𝑠 中,而 𝑟𝑠′ 都在会话 𝑠′ 中。这里,𝑘 是会话 𝑠′ 中由顶点组成的子路径的长度。给定一条边 (𝑟, 𝑟′),如果存在一条从 𝑟 到 𝑟′ 的 k 向前路径,则 (𝑟, 𝑟′) 是冗余的。这种冗余被称为会话间传递性 (IT),因为在两个不同会话 (𝑠 和 𝑠′) 中的请求中存在一条 k 向前路径。例如,图 1 中的路径 (𝑟5, 𝑟6, 𝑟8, 𝑟12) 是从 𝑟5 到 𝑟12 的 1 向前路径1-forward path。因此,(𝑟5, 𝑟12) 是冗余的。因此,它在无 IT(1) 图中被修剪。

然后,我们正式定义一个新的无冗余依赖图,即使用 k 前向路径的 IT(k) 无图。我们首先定义一个无冗余依赖边集的新概念。为了通用性,我们在任意边集 ε 上定义它:𝐼𝑇𝑘(ε) = {(𝑟, 𝑟′) ∈ ε | ∄ 𝑖-forward path 𝑝 from 𝑟 to 𝑟′ in ε ∪ εses where 0 ≤ 𝑖 ≤ k}。也就是说,𝐼𝑇𝑘(ε) 中的每条边都缺少长度为 𝑘 或更短的任何前向路径。定义 1 定义了边集为 𝐼𝑇𝑘col) 的图。

定义 1:对于 Gini,无 IT(k) 图 GIT(k) = (VR, εIT(k)) 是一个依赖图,其中 εIT(k) = 𝐼𝑇𝑘col)。

依赖图 GRBSS = (VR, εRBSS) 由 [28] 中的依赖图生成算法的生成步骤(即在传递归约之前)生成,位于 GIT(0) 和 GIT(1) 之间
(即 εIT(1) ⊆ εRBSS ⊆ εIT(0))。我们将在第 4 节中讨论这一点。

虽然 GRBSS 比 Gtotal 提供更高的重放并发性,但它可能有许多冗余边,导致重放期间的严重开销。可以在 GRBSS 上执行传递归约算法。但是,由于不必要的冗余边生成和删除的开销很高,依赖图生成的整体性能会很慢。例如,在表 1 中,GRBSS 中 99.6% 的边是冗余的。这促使我们定义一个更紧凑的依赖关系图,以实现高效的生成和传递归约。

IT(∞)-free 图(简称为 IT 无图)是 IT(k)-free 图的一般情况,其中边没有任何长度的前向路径(即 𝑘 = ∞)。IT-free图确保在两个会话间修剪所有冗余边。为简便起见,我们在以下部分中将 𝐼𝑇(ε) 表示为 𝐼𝑇(ε)。

虽然我们可以将 IT 的定义推广到三个或更多会话,但修剪这些冗余边将需要对迄今为止正在构建的边集 𝐼𝑇(ε) 进行昂贵的自连接操作。例如,考虑为三个会话构建𝐼𝑇(ε)。然后,我们需要使用量词𝐸1、𝐸2 和 𝐸3 对𝐼𝑇 (E) 执行三向自连接,其中非等值连接条件包括“𝐸1.𝑠𝑟𝑐_𝑡𝑠 ≤ 𝐸2.𝑠𝑟𝑐_𝑡𝑠 AND 𝐸1.𝑑𝑠𝑡_𝑡𝑠 ≥ 𝐸2.𝑑𝑠𝑡_𝑡𝑠 AND 𝐸2.𝑠𝑟𝑐_𝑠𝑖𝑑 <> 𝐸3.𝑑𝑠𝑡_𝑠𝑖𝑑”。这甚至比传递闭包transitive closure更加昂贵。

3.3 无 OT 图表

尽管无 IT 图删除了一些冗余边,但仍有许多冗余边,因为它仅考虑了两个会话导致的会话间冗余。例如,在表 1 中,无 IT 图中 73.7% 的边仍然是冗余的。我们分析发现,无 IT 图中最多的冗余边是由于碰撞相关边collision-dependent edges的传递性,其中每条边的源顶点和目标顶点访问同一个对象。我们这种冗余 object transitivity 对象传递性 (OT)。也就是说,OT 捕获了多个会话之间重要且占主导地位的冗余,这也可以有效地检测到,正如我们将在第 5.2 节中看到的那样。在表 1 的 SD 基准测试中,无 IT 图中 98% 的冗余边都有 OT。

我们首先正式定义另一种重要的无冗余依赖边集,其灵感来自无对象传递性 (OT-free) 边。为了定义无 OT 边集,我们定义了一个谓词。考虑两个请求𝑟,𝑟′ ∈ VR。谓词 𝑎𝑐𝑐𝑒𝑠𝑠_𝑜𝑏𝑗(𝑟, 𝑜) 当且仅当 𝑜 ∈ 𝑟 .𝑜𝑏𝑗𝑠 时返回 𝑡𝑟𝑢𝑒。然后我们在定义 2 中定义无 OT 图。例如,在图 1 中,无 OT 图没有 (𝑟6, 𝑟9),因为 (𝑟6, 𝑟8, 𝑟9) 因 OT 而存在。

在这里插入图片描述

定义 2:对于 Gini,无 OT 图 GOT = (VR, εOT) 是依赖图,其中 εOT = 𝑂𝑇 (εcol)。

3.4 无 OTIT 图表

通过同时应用 𝐼𝑇 (ε) 和 𝑂𝑇 (ε)(即删除两种类型的冗余边),可以获得更简洁的依赖图。在所有可能的组合中(即 𝐼𝑇 (𝑂𝑇 (ε))、𝑂𝑇 (𝐼𝑇 (ε)) 和 𝑂𝑇 (ε) ∩𝐼𝑇 (ε)),最简洁的依赖图是没有任何冗余边的依赖图,这些冗余边在无 OT 或无 IT 的图中都不存在。我们将该图称为无 OTIT 图。

无 OTIT 图的边集只是无 OT 和无 IT 图的边集的交集,如定义 3 中所定义。请注意,OT 和 IT 的顺序与定义无关。

定义 3:对于 Gini,无 OTIT 图 GOTIT = (VR, εOTIT) 是一个依赖图,其中 εOTIT = 𝑂𝑇 (εcol) ∩ 𝐼𝑇 (εcol)。

3.5 无 IT[OT] 图表

无 OTIT 图在生成图效率方面存在缺点,因为它偏向简洁。我们将在第 5 节中讨论具体的时间复杂度,但直观地看,确定哪条边同时在 𝐼𝑇 (ε) 和 𝑂𝑇 (ε) 中的成本很高。我们观察到,在 𝑂𝑇 (ε) 之后应用 𝐼𝑇 (ε) 可以获得无 IT[OT] 图,与无 OTIT 图相比,它可以更高效地生成,同时只增加少量冗余边(在 TPC-C 中,多 1.3%)。在本节中,我们提出了一种无 IT[OT] 图,这是一种可以高效生成的紧凑图,将在第 7 节中进行实证验证。我们在定义 4 中正式定义了无 IT[OT] 图的概念。

定义 4:对于 Gini,无 IT[OT] 图 GIT[OT] = (VR, εIT[OT]) 是一个依赖图,其中 εIT[OT] = 𝐼𝑇 (𝑂𝑇 (εcol))。

通过改变 OT 和 IT 的顺序,我们可以得到无 OT[IT] 图。然而,与无 IT[OT] 图相比,无 OT[IT] 图的效率较差,因为为每个对象 𝑜 ∈ 𝑂 计算 𝑂𝑇𝑜IT) 的成本很高。因此,我们省略了无 OT[IT] 图的解释。我们将在第 5 节中讨论这个问题,然后再解释如何生成每个图。

尽管 GOTIT 是最小的,但 DoppelGanger++ 选择了 GIT[OT] 因为它在大小和效率之间取得了平衡。也就是说,在我们广泛的实验中,| εIT[OT]| / | εOTIT | 最多为 1.09,尽管 GOTIT 的生成成本平均比 GIT[OT] 高 3.2 倍。

3.6 输出确定性保证

我们首先表明,我们的捕获和重放算法保证了 (事务级) 快照隔离下的输出确定性。快照隔离级别可防止脏读、不可重复读和幻读。为了确保输出确定性,我们必须确保:

  1. 每个重放请求 𝑟 返回与捕获期间相同的输出
  2. 以及 𝑟 将数据库状态更改为与捕获期间相同的状态

在这里,我们假设不存在随机不一致,如 [28] 中所述;具有相同输入并读取相同数据库状态的语句始终会产生相同的输出。

在快照隔离中,每个事务都获取具有其开始时间戳的自己的快照,并读取(即可能通过多个语句)在时间戳之前提交的数据快照。当没有发生写冲突时,可以提交事务。为了确保 1),每个重放的事务必须看到与捕获期间相同的快照。为此,DRS 将每个事务的快照时间戳记录为其非提交请求的时间戳。

在 Gcol 中,每个非提交请求 𝑟 与修改 𝑟 .𝑜𝑏𝑗𝑠 中某个对象的提交请求之间的顺序得以保留。在重放期间,DRS 需要确保每个非提交请求读取在其时间戳之前提交的 𝑟 .𝑜𝑏𝑗𝑠 的快照。使用 Gcol,2) 也得到保证,因为具有重叠写入集的提交请求是按顺序调度的,从而避免了任何写入冲突。

请注意,某些 DBMS(例如 PostgreSQL)声称支持可重复读取隔离,但在级别 [6] 中不允许幻像读取,而其他 DBMS(例如 SQL Server)则在每个语句读取的所有数据上持有共享锁,直到事务完成。在两种情况下,如果我们对捕获和重放使用相同隔离级别下的相同并发控制,则满足读取稳定性条件(即可重复读)。

现在我们来解释一下为什么我们的算法也能保证在较弱的隔离级别(语句级快照隔离)下的输出确定性。在语句级快照隔离中,每个语句都使用其快照时间戳获取自己的快照,并读取在时间戳之前提交的数据,从而允许不可重复或幻像读取。与事务级快照隔离不同,我们还捕获每个非提交请求的时间戳。在重放期间,我们确保每个非提交请求都读取在其时间戳之前提交的对象的快照。

我们的正确性保证适用于我们提出的所有依赖关系图。这是因为删除冗余边不会改变请求的执行顺序。例如,在图 1 中,考虑冗余边 (𝑟4, 𝑟9)。如果我们删除边,由于路径 (𝑟4, 𝑟8, 𝑟9),𝑟9 仍将在 𝑟4 之后调度。

分区级依赖关系与表级依赖关系一样,可确保输出确定性,从而避免块级或行级依赖关系中出现的重放不一致问题 [28]。当我们对表进行分区时,我们会了解分区信息。因此,我们的系统可以使用此信息识别查询的适当分区,而块级或行级依赖关系则不足。

商业 DBMS 通常支持基于哈希或基于范围的分区。因此,一旦给出查询,我们的 DRS 就会使用分区修剪技术(例如 [22])识别查询访问的所有相关分区。如果查询包含非分区键上的谓词,则 DRS 会识别表 𝑅 的所有分区,即使某些分区可能没有与查询相关的元组。也就是说,我们的 DRS 采取保守的方法来保证正确性。

例如,考虑一个表 𝑅(𝐴, 𝐵,𝐶),其范围在 𝐴 上分区:{[1-10], [11-20], [21-30], …,[9990-10000]}。假设清单 2 中的两个事务在捕获时按顺序执行。这里,事务 T1 使用非分区键 𝐵 上的谓词,而事务 T2 使用分区键 𝐴 上的谓词(即 𝐴 = 1)。然后,T1 的 SELECT 请求与 𝑅 的所有分区相关联,而 T2 的两个请求(即 UPDATE 和 COMMIT 请求)仅与第一个分区相关联(请注意,T1 的 COMMIT 请求被忽略,因为 T1 不会更新任何对象,如第 3.1 节所述)。因此,T1 的 SELECT 请求和 T2 的 COMMIT 请求在依赖图中的顺序正确。

-- Listing 2. Transaction examples

T1 : SELECT * FROM R WHERE B <20; COMMIT ;
T2 : INSERT INTO R VALUES (1 ,5 ,20); COMMIT ;

4 重复向后扫描 (RBSS)

本节回顾 RBSS [28] 如何从 Gini 生成依赖图 GRBSS。请注意,RBSS 指的是生成算法,不包括传递归约。我们还提供了 RBSS 的时间复杂度以及 GRBSS 与 GIT(k) 之间的关系。

RBSS 通过迭代除 𝑠′ = 𝑟′.𝑠𝑖𝑑 之外的每个会话 𝑠 ∈ 𝑆 并以时间间隔 (𝑟𝑚𝑖𝑛.𝑡𝑠, 𝑟𝑚𝑎𝑥 .𝑡𝑠) 执行向后扫描来生成每个请求 𝑟′ ∈ VR 的传入边incoming edges。只要我们发现 𝑟 与 𝑟′ 发生碰撞,它就会停止扫描。假设 𝑟𝑝𝑟𝑒𝑣 是 𝑟′ 在会话 𝑠′ 中的前一个请求。那么 𝑟𝑚𝑎𝑥 是会话 𝑠 中 𝑟′ 之后最早的请求,而 𝑟𝑚𝑖𝑛 是会话 𝑠 中必须等待 𝑟𝑝𝑟𝑒𝑣 的请求。注意,边 (𝑟𝑚𝑖𝑛, 𝑟𝑝𝑟𝑒𝑣 ) 需要在 𝑟′ 的入边生成之前生成。例如,我们在图 4 中解释如何计算𝑟7 的时间间隔。由于 (𝑟2, 𝑟4) 是在处理𝑟4 时生成的,因此𝑟𝑚𝑖𝑛 设置为𝑟2。𝑟𝑚𝑎𝑥 设置为𝑟8。

在这里插入图片描述

时间复杂度:RBSS 的时间复杂度为 𝑂(|VR|2)。我们假设请求在会话之间均匀分布。此外,我们假设查找 𝑟𝑚𝑎𝑥 需要 𝑂(𝑙𝑜𝑔 (|VR| / |𝑆|)),而所有其他子过程都需要常数时间。在最坏的情况下,RBSS 必须在每个会话中访问 𝑟′.𝑠𝑖𝑑 之外的所有先前请求(即 𝑟𝑚𝑖𝑛 可以为 𝑟0)。因此,总体时间复杂度为:

在这里插入图片描述

为了使用时间复杂度分析来分析实验结果,我们使用平均后向距离average backward distance 𝑑𝑎𝑣g 的概念推导出更严格的界限,即每个请求需要扫描的平均请求数,以从会话中找到传入边。最后,我们得到 𝑂(| VR | · (| 𝑆 | −1) · (𝑑𝑎𝑣𝑔 + 𝑙𝑜𝑔 (| VR | / | 𝑆 |))) 作为 RBSS 的时间复杂度。

我们解释了 IT(k)-free 图与依赖图 GRBSS = (VR, εRBSS) 之间的关系。请注意,[28] 没有定义此图;因此很难理解和分析 GRBSS 的属性。引理 1 建立了这种关系。我们简要解释了引理证明背后的直觉。 RBSS 用 0 前向路径 (𝑟, · · · , 𝑟𝑠𝑖, 𝑟′) (𝑖 ≥ 1)(即 εRBSS ⊆ εIT(0))修剪每条边 (𝑟, 𝑟′)。假设在 GRBSS 中,(𝑟, 𝑟′) 有一条 0 前向路径 (𝑟, · · · , 𝑟𝑠𝑖, 𝑟′) (𝑖 ≥ 1)。然后,在会话 𝑠 中的向后扫描以生成 𝑟′ 的传入边期间,RBSS 必须找到 𝑟𝑠𝑖 然后停止。我们现在解释为什么 RBSS 无法修剪某些边 (𝑟, 𝑟′) ∈ εcol,这些边具有 1-前向路径 (𝑟, 𝑟𝑠1, · · · , 𝑟𝑠𝑖, 𝑟𝑝𝑟𝑒𝑣, 𝑟′) (𝑖 ≥ 0)(即 εIT(1) ⊆ εRBSS)。一旦 (𝑟𝑠𝑖, 𝑟𝑝𝑟𝑒𝑣 ) 从 GRBSS 中修剪掉,RBSS 就不会继续修剪冗余边 (𝑟, 𝑟′),因为它具有 1-前向路径。以下引理显示了这些依赖图之间的包含关系。所有形式引理和证明均在技术报告 [7] 中。我们建议感兴趣的读者参阅该报告以了解详细信息。

Lemma 1. εIT(1) ⊆ εRBSS ⊆ εIT(0).


5 状态单向扫描 (SSFS)

本节介绍我们使用状态的高效依赖图生成算法 SSFS。我们首先描述一种使用状态生成依赖图的常用算法。然后,我们解释应该维护哪些状态以及如何从每种类型的依赖图的状态生成依赖图。SSFS 可以在第 3 节中生成任何依赖图。

我们将 VR 视为根据时间戳的顶点序列。我们假设时间戳 𝑡 由单调递增的逻辑计时器 (𝑡 ≥ 1) 分配。依赖图生成算法采用 VR,处理请求,并输出依赖关系 ε ∈ {εOT, εIT, εOTIT, εIT[OT] }。我们省略了如何生成无 OT[IT] 图,因为它需要为每个对象 𝑜 ∈ 𝑂 计算𝑂𝑇𝑜IT),这是昂贵的。给定一个对象𝑜,计算𝑂𝑇𝑜(εIT)等同于计算(VR,𝐶𝑜IT))的传递约简,这需要𝑂(|𝐶𝑜IT)| +|𝑆 || VR | + |𝑆 ||𝑂𝑇𝑜col)|)[32,34]。另一方面,我们可以从观察第 5.2 节中有效地计算𝑂𝑇(εcol)。我们的实验还表明,无 IT[OT] 图在简洁性和效率方面都很有效(第 7 节)。我们省略了如何生成 εOTIT,因为它是通过 εOT 和 εIT 的交集获得的。

在这里插入图片描述

算法 1 描述了 SSFS。SSFS 首先初始化增量附加的当前边集(第 1 行)和状态(第 2 行)。SSFS 按时间戳的递增顺序迭代 VR 中的所有请求 𝑟′(第 3 行)。对于每个请求 𝑟′,SSFS 使用 𝑠𝑡𝑎𝑡𝑒𝑠 生成一组 𝑟′ 的传入边 ε𝑟′(第 4 行),然后更新 𝑠𝑡𝑎𝑡𝑒𝑠(第 5 行)。然后 SSFS 将生成的边集附加到当前边集(第 6 行)。在迭代结束时,SSFS 最终返回生成的依赖图(第 7 行)。

5.1 生成 GIT

在这里插入图片描述

考虑在时间戳 𝑡 处会话 𝑠′ 的当前请求 𝑟′。由于对于任何 𝑘 > 0,εIT(0) ⊇ εIT(k),我们首先从每个会话 𝑠 (≠ 𝑠′)(情况 𝑘 = 0)中找到 εIT(0) 中的每个边 (𝑟, 𝑟′),如果 𝑟 和 𝑟′ 之间存在 𝑘 (≥ 1) 前向路径(情况 𝑘 > 0),则对其进行修剪。也就是说,未修剪的那些必须在 εIT(k) 中。例如,在图 5 中,我们假设当前要处理的请求是 𝑟7 (= 𝑟′),即提交请求。然后,从会话 1 开始,我们找到 (𝑟6, 𝑟7) ∈ εIT(0),并且不对其进行修剪,因为没有从 𝑟6 到 𝑟7 的 k 向前路径。另一方面,从会话 2 开始,我们首先找到 (𝑟4, 𝑟7) ∈ εIT(0),并对其进行修剪,因为存在 1 向前路径 (𝑟4, 𝑟5, 𝑟7)。

对于每个会话 𝑠 (≠ 𝑠′),为确保 (𝑟, 𝑟′) ∈ εIT(0)(情况 𝑘 = 0),𝑟 必须是会话 𝑠 中对 𝑟′ 的最新碰撞相关请求(参见图 6a)。否则,在会话 𝑠 中存在最新的与碰撞相关的请求 𝑟𝑠(≠ 𝑟) 到 𝑟′,因此存在一条 0-前向路径(𝑟, · · · , 𝑟𝑠, 𝑟′),这与 εIT(0) 的定义相矛盾。

在这里插入图片描述

对于每条边 (𝑟, 𝑟′) ∈ εIT(0),为确保 (𝑟, 𝑟′) ∈ εIT(情况 𝑘 ≥ 1),没有边 (𝑟𝑠, 𝑟𝑠′) ∈εIT(0) 使得 𝑟𝑠.𝑠𝑖𝑑 = 𝑠、𝑟𝑠.𝑡𝑠 ≥ 𝑟 .𝑡𝑠、𝑟𝑠′.𝑠𝑖𝑑 = 𝑠′ 和 𝑟𝑠′.𝑡𝑠 < 𝑡 已被附加到当前正在构建的依赖图中(参见图 6b)。否则,存在一条 k 前向路径 (𝑟, · · · , 𝑟𝑠, 𝑟𝑠′, · · · , 𝑟′),这与 εIT(k) 的定义相矛盾。

GIT 的状态:为了生成 GIT 的传入边,我们维护两个嵌套表作为状态:会话碰撞请求the session-wise collision requests (SCR) 和会话间最新附加边the latest appended edges between sessions (LAE)。SCR 存储每对 (𝑜𝑏𝑗, 𝑆𝐼𝐷) 的最新未提交和提交请求。给定一个对象 𝑜 和一个会话 𝑠,我们可以使用 SCR 检索和更新会话 𝑠 中访问 𝑜 的最新未提交和提交请求。

SCR 以二维数组实现,允许在 𝑂(1) 中执行查找和更新操作。例如,当我们在图 5 中处理𝑟7(=𝑟)时,SCR 分别将𝑟2 和𝑟4 存储为会话 2 中访问对象 1 的最新未提交和提交请求。同样,SCR 分别将𝑟1 和𝑟4 存储为会话 2 中访问对象 2 的最新未提交和提交请求。LAE 将每对会话的最新附加边存储在 εIT(0) 中,同时支持查找和更新。LAE 也是以二维数组的形式实现的,因此可以在𝑂(1) 中执行操作。例如,在同一图中,LAE 中的第四个元组表示从会话 2 到会话 3 的最新附加边(𝑟4,𝑟5)。

我们现在描述用于为 GIT 生成 𝑟′ 的传入边的详细算法。给定 𝑟′,对于每对 (𝑠, 𝑜),使得 𝑜 ∈ 𝑟′.𝑜𝑏𝑗𝑠,我们从 SCR 检索与 𝑟′ 冲突相关的最新非提交和提交请求。在 𝑟′ 的所有检索请求中,如果 𝑟′ 是提交请求,我们将在 𝑂(|𝑟′.𝑜𝑏𝑗𝑠|) 中检索会话 𝑠 中的最新请求 𝑟,否则我们将在会话 𝑠 中检索最新的提交请求 𝑟。然后,由于 (𝑟, 𝑟′) ∈ εIT(0),我们使用 𝑂(1) 中的 𝑠 和 𝑠′ 从 LAE 检索最新附加边 (𝑟𝑠, 𝑟𝑠′)。如果未找到,我们生成 (𝑟, 𝑟′) 作为新边。否则,如果 𝑟 .𝑡𝑠 > 𝑟𝑠.𝑡𝑠,我们生成 (𝑟, 𝑟′)。生成 (𝑟, 𝑟′) 后,我们使用 𝑂(1) 中的 𝑠 和 𝑠′ 更新 LAE 中的元组,方法是将 𝑎𝑝𝑝𝑒𝑛𝑑𝑒𝑑𝐸𝑑𝑔𝑒 列的值替换为 (𝑟, 𝑟′)。对于每个请求,更新 SCR 需要 𝑂(|𝑟′.𝑜𝑏𝑗𝑠|),而更新 LAE 需要 𝑂(|𝑆|),即 𝑟′ 的传入边数上限。

现在,我们分析 GIT 的边生成和状态维护的时间和空间复杂度。对于每个请求𝑟′,我们需要扫描 SCR 中对象 ID ∈ 𝑟′.𝑜𝑏𝑗𝑠 的每个元组。扫描 SCR 中的每个元组需要𝑂(1),因此,𝑟′ 的入边生成的时间复杂度为𝑂(|𝑟′.𝑜𝑏𝑗𝑠| · |𝑆|)。维护每个请求的 SCR 和 LAE 的时间复杂度为𝑂(𝑚𝑎𝑥 (|𝑟′.𝑜𝑏𝑗𝑠|, |𝑆 |))。如果|𝑆|和|𝑟′.𝑜𝑏𝑗𝑠|被视为常数,则保证每个请求的𝑂(1)。状态的空间复杂度为 𝑂(|𝑆 | · |𝑂| + |𝑆|2),因为 SCR 和 LAE 的大小分别为 𝑂(|𝑆 | · |𝑂|) 和 𝑂(|𝑆|2)。

5.2 生成 GOT

考虑当前请求 𝑟′ 在时间戳 𝑡 访问 𝑟′.𝑜𝑏𝑗𝑠。为确保 (𝑟, 𝑟′) ∈ εOT,对于每个对象 𝑜 ∈ 𝑟 .𝑜𝑏𝑗𝑠 ∩ 𝑟′.𝑜𝑏𝑗𝑠,不存在从 𝑟 到 𝑟′ 的对象传递路径。否则,对于某个 𝑜,(𝑟, 𝑟′) ∉ 𝑂𝑇𝑜(𝐶𝑜col))(参见 𝑂𝑇𝑜 和 𝐶𝑜 的定义)。

因此,对于每个 𝑜 ∈ 𝑟′.𝑜𝑏𝑗𝑠,我们找到 𝑂𝑇𝑜(𝐶𝑜col)) 的 𝑟′ 入边的候选源顶点。然后,我们按顶点 ID 对它们进行分组,以修剪组大小与 |𝑟′.𝑜𝑏𝑗𝑠 ∩ 𝑟 .𝑜𝑏𝑗𝑠| 不匹配的任何候选顶点 𝑟。例如,在图 5 中,我们假设当前请求为 𝑟7 (= 𝑟′)。对于对象 1,我们发现 𝑟4,因为 (𝑟4, 𝑟7) ∈ 𝑂𝑇 1(𝐶1col))。

类似地,对于对象 2,我们发现 𝑟5 和 𝑟6,因为 (𝑟5, 𝑟7),(𝑟6, 𝑟7) ∈ 𝑂𝑇2(𝐶2col))。图 5 还显示了 group by 操作的结果。由于 𝑟4 (=1) ≠ |𝑟7.𝑜𝑏𝑗𝑠 ∩ 𝑟4.𝑜𝑏𝑗𝑠| (=2) 的组大小,我们丢弃 𝑟4。但是,由于 𝑟5 (=1) 的组大小 = |𝑟7.𝑜𝑏𝑗𝑠 ∩ 𝑟5.𝑜𝑏𝑗𝑠|,我们生成 (𝑟5, 𝑟7)。与 (𝑟5, 𝑟7) 类似,我们生成 (𝑟6, 𝑟7)。

在这里插入图片描述

为了确保对于 𝑜 ∈ 𝑟′.𝑜𝑏𝑗𝑠,有 (𝑟, 𝑟′) ∈ 𝑂𝑇𝑜(𝐶𝑜col)),如果 𝑟′ 是非提交请求,𝑟 必须是访问 𝑜 的最新提交请求。否则,存在访问 𝑜 的最新提交请求 𝑟′′ (≠ 𝑟),因此存在对象传递路径 (𝑟, 𝑟′′, 𝑟′),这与 𝑂𝑇𝑜(𝐶𝑜col)) 的定义相矛盾。当𝑟′为提交请求时,𝑟既可以是访问𝑜的提交请求,也可以是非提交请求。如果𝑟为提交请求,则𝑟必须是访问𝑜的最新请求,并且在𝑟之后不得有访问𝑜的非提交请求𝑟′′。否则,存在对象传递路径(𝑟,𝑟′′,𝑟′)(参见图7a)。如果𝑟为非提交请求,则在𝑟之后不存在访问𝑜的提交请求𝑟′′。否则,存在对象传递路径(𝑟,𝑟′′,𝑟′)(参见图7b)。我们将在访问 𝑜 的最新提交请求之后访问 𝑜 的一组未提交请求称为对象 𝑜 的最新未提交请求集。例如,在图 5 中,{𝑟5, 𝑟6} 是对象 2 的最新未提交请求集。

我们将检索到的所有候选源顶点存储在临时表中,用于 𝑟′.𝑜𝑏𝑗𝑠。然后,我们按源顶点 ID 对它们进行分组。如果源顶点 𝑟 的组大小等于 | (𝑟.𝑜𝑏𝑗𝑠 ∩ 𝑟′.𝑜𝑏𝑗𝑠)| (即,对于每个 𝑜 ∈ 𝑟.𝑜𝑏𝑗𝑠 ∩ 𝑟′.𝑜𝑏𝑗𝑠,(𝑟, 𝑟′) ∈ 𝑂𝑇𝑜(𝐶𝑜col))),我们生成边 (𝑟, 𝑟′) 作为 GOT 的新边。否则,我们丢弃 𝑟。

GOT 的状态:为了生成 GIT 的入边,我们维护一个嵌套表,即OT-free候选表 OTC(𝑜𝑏𝑗, 𝑡𝑦𝑝𝑒, 𝑐𝑎𝑛𝑑𝑆𝑜𝑢𝑟𝑐𝑒) 作为状态。OTC 中的每个元组对应于每对 (𝑜𝑏𝑗, 𝑡𝑦𝑝𝑒)。如果 𝑡𝑦𝑝𝑒 是 COMMIT,则 𝑐𝑎𝑛𝑑𝑆𝑜𝑢𝑟𝑐𝑒 存储访问 𝑜𝑏𝑗 的最新提交请求。否则,𝑐𝑎𝑛𝑑𝑆𝑜𝑢𝑟𝑐𝑒 存储为 𝑜𝑏𝑗 设置的最新非提交请求。给定一个对象𝑜和请求类型𝑡𝑦𝑝𝑒,我们可以使用 OTC 检索和更新访问𝑜的最新提交请求或取决于𝑡𝑦𝑝𝑒的𝑜的最新非提交请求集。例如,在处理图 5 中的𝑟7(=𝑟′)时,对于𝑜𝑏𝑗 = 2 和𝑡𝑦𝑝𝑒 = NON-COMMIT,OTC 将 {𝑟5,𝑟6} 存储为最新非提交请求集。对于𝑜𝑏𝑗 = 2 和𝑡𝑦𝑝𝑒 = COMMIT,OTC 存储最新提交请求𝑟4。

我们现在描述用于为 GOT 生成 𝑟′ 的传入边的详细算法。对于每个请求 𝑟′,SSFS 遍历每个对象 𝑜 ∈ 𝑟′.𝑜𝑏𝑗𝑠。给定一个对象 𝑜,当 𝑟′ 是非提交请求时,我们使用 (𝑜, COMMIT) 在 O(1) 中检索访问 𝑜 的最新提交请求。如果 𝑟′ 是提交请求,我们首先使用 (𝑜, NON-COMMIT) 检索最新的非提交请求集。如果不存在这样的非提交请求,那么我们使用 (𝑜, COMMIT) 在 O(1) 中检索访问 𝑜 的最新提交请求。所有检索到的请求都存储在临时表中,我们按顶点 ID 对候选源顶点进行分组。然后我们生成每个边 (𝑟, 𝑟′),使得 𝑟 的组大小与 |𝑟.𝑜𝑏𝑗𝑠 ∩ 𝑟′.𝑜𝑏𝑗𝑠| 相同。

现在,我们分析 GOT 的边生成和状态维护的时间和空间复杂度。对于每个请求 𝑟′,我们需要从 OTC 扫描候选源顶点,并将它们存储在临时表中。如果 𝑟′ 是非提交请求,则需要 𝑂(|𝑟′.𝑜𝑏𝑗𝑠|)。否则,需要 𝑂(Σ 𝑜∈𝑟′.𝑜𝑏𝑗𝑠 # of non-commit request in OTC for 𝑜)。如果将临时表实现为哈希表,则 group by 操作需要 𝑂˜ (𝑚𝑎𝑥 (|𝑟′.𝑜𝑏𝑗𝑠|,Σ 𝑜∈𝑟′.𝑜𝑏𝑗𝑠 # of non-commit request in OTC for 𝑜))。维护每个请求的 OTC 的时间复杂度为 𝑂(|𝑟′.𝑜𝑏𝑗𝑠|)。OTC 和临时表的空间复杂度为 𝑂(Σ 𝑟 ∈VR(|𝑟 .𝑜𝑏𝑗𝑠|))。

5.3 生成 GIT[OT]

生成 εIT[OT] 的一个简单实现是 1) 在 εOT 中生成 𝑟′ 的传入边,2) 修剪一些不在 εIT[OT 中的边。这种方法的效率受到严重限制,甚至不如生成 εOT

我们不会在 εOT 中生成 𝑟′ 的所有传入边,而是丢弃一些来自 OTC 的候选请求,以避免生成不在 εIT(0) 中的边。具体来说,对于每个 (𝑜𝑏𝑗, 𝑡𝑦𝑝𝑒) 对,我们只维护每个会话的最新请求。因此,存储的请求数量明显小于原始 OTC。请注意,生成 GIT[OT] 不需要 SCR。

我们还首先迭代会话并计算给定会话的最新候选源顶点 𝑟 的数量。这样,我们可以检查与 𝑟 对应的组大小是否等于 | (𝑟′.𝑜𝑏𝑗𝑠∩𝑟.𝑜𝑏𝑗𝑠)|,从而避免基于哈希的分组。与仅为 εOT 生成边相比,此优化可显著提高速度。因此,生成 εIT[OT] 可同时实现大小和效率。第 7 节中的大量实验证实了我们的说法。在为 εOT ∩ εIT(0) 生成 𝑟′ 的传入边后,我们使用 LAE 修剪边(参见第 5.1 节中的 𝑘 > 0 的情况)。


6 并行化 SSFS

在本节中,我们提出了 SSFS 的并行版本 (PSSFS)。我们重点介绍 IT[OT] 图,因为其他类型的图也可以类似地获得。

它包含三个阶段:1)分区、2)本地依赖图生成和 3)分层合并。在分区阶段,PSSFS 按时间范围将工作负载分为 p 个分区,𝑃1、𝑃2、· · · 、𝑃𝑝,并生成它们的诱导子图 induced subgraphs Gini[𝑃1]、Gini[𝑃2]、· · · 、Gini[𝑃𝑝 ]。其中,如果 𝐸(G) 中每条边的端点都在 𝑉 (𝐻) 中[14],则子图 𝐻 是 G 的诱导子图。给定一组顶点 𝑉 (𝐻),G [𝑉 (𝐻)] 表示 𝐻。然后,PSSFS 使用串行 SSFS 为 Gini[𝑃𝑖] 生成一个本地IT[OT]-free依赖图 G𝑖(0)。这里,G𝑖(𝑚) 表示分层合并中第 𝑚 级的第 𝑖 本地依赖图。请注意,我们将解释为了实现有效的分层合并,需要额外维护哪些状态。最后,我们通过生成缺失的分区间边并保持状态来分层合并本地依赖图。除了最后一级,合并的依赖图也被视为本地依赖图。例如,给定局部依赖图 G𝑖(𝑚) 和 G𝑖+1(𝑚),对于所有 𝑖 < ⌈log2𝑝 ⌉,这两个图的合并依赖图也是 𝑉 (G𝑖(𝑚)) ∪ 𝑉 (G𝑖+1(𝑚)) 的另一个局部依赖图。详细算法请参考 [7]。

虽然这似乎是一种典型的并行算法,但仍存在三个挑战。1) 与全局依赖图相比,局部依赖图中缺少哪些边?2) 局部依赖图中是否有边需要删除?3) 为了实现高效合并,还应保留哪些状态?引理 2 回答了前两个问题。引理 2 指出 1) 缺少的边只是分区间的边,2) 不存在从局部依赖图中删除任何边的风险。

引理 2。给定全局依赖图 GIT[OT],每个局部依赖图 G𝑖 都是使用 G𝑖 中所有顶点的全局依赖图的诱导子图。即:

在这里插入图片描述

现在,我们来回答最后一个问题。与 SSFS 一样,我们首先解释必须维护哪些状态才能有效地为合并的无 OT 图生成候选分区间边。然后,我们解释如何使用 k 前向路径的定义从中修剪冗余边。因此,生成的图满足无 IT[OT] 图的所有条件。

考虑两个局部依赖图 G𝑖 和 G𝑖+1 的合并。然后,对于两个图之间的任何分区间边 (𝑟, 𝑟′),𝑟 ∈ 𝑉 (G𝑖) 和 𝑟′ ∈ 𝑉 (G𝑖+1)。引理 3 指出了我们需要维护的分区间边的候选目标顶点集 {𝑟′}。

引理 3. 考虑合并两个局部依赖图 G𝑖 和 G𝑖+1。然后,对于某个对象 𝑜,合并的依赖图中所有分区间边的目标顶点集中的每个顶点 𝑟′ 要么是 G𝑖+1 中第一个访问 𝑜 的提交请求,要么是第一个访问 𝑜 的提交请求之前访问 𝑜 的非提交请求。

基于引理 3,我们将新状态维护为哈希表,其键是对象 𝑜 ∈ 𝑂,其值是 𝑜 的第一个提交请求和第一个提交请求之前的第一个非提交请求的对。


在这里,我们不需要在每个会话的第一次提交请求之前存储所有非提交请求,这类似于第 5.3 节中解释的优化。然后,对于每个 𝑜 ∈ 𝑂,候选目标顶点集是键 𝑜 的哈希表值中两个集合的并集。

现在,我们解释如何使用这个附加状态生成合并的无 OT 图的分区间边。考虑合并两个局部依赖图 G𝑖 和 G𝑖+1。然后,我们可以获得 G𝑖+1 的所有候选目标顶点。由于我们将像在 SSFS 中一样生成 GIT[OT] 的传入边,因此我们按时间戳顺序对这些候选目标顶点进行排序。使用 G𝑖 中每个 𝑜 ∈ 𝑂 的第一个提交请求和提交请求之前的非提交请求,PSSFS 像在 SSFS 中一样在 GIT[OT] 中生成边,丢弃两个顶点都在 𝑉 (G𝑖+1) 中的任何边。

要为合并的 IT[OT]-free 图生成分区间边,如果存在从 𝑟 到 𝑟′ 的 k 向前路径,我们需要修剪 εOT 中的任何分区间边 (𝑟, 𝑟′)。如第 5.1 节所述,𝑟 必须是 𝑟′ 的最新碰撞相关。因此,会话 𝑠 中 𝑟′ 的传入边的源顶点必须是不同会话中的最新候选源顶点 𝑟 ∈ 𝑉 (G𝑖)。为了修剪 (𝑟, 𝑟′),使得存在从 𝑟 到 𝑟′ 的 k 向前路径,并且路径中的所有边都在 𝑂𝑇(𝐸(Gcol[𝑉 (G𝑖) ∪𝑉 (G𝑖+1)])) 中,使用状态,我们提供了以下引理。通过无 IT 图的定义,很容易证明。

在这里插入图片描述

根据引理4,我们需要找到(𝑟𝑠,𝑟𝑠′)来检查分区间边the inter-partition edge(𝑟,𝑟′)是否需要修剪。如果满足以下任何一种情况,则修剪它:

  1. 𝑟𝑠,𝑟𝑠′∈𝑉(G𝑖)
  2. 𝑟𝑠∈𝑉(G𝑖)且𝑟𝑠′∈𝑉(G𝑖+1)
  3. 𝑟,𝑟′∈𝑉(G𝑖+1)

当第一种情况成立时,存在一条 k 向前路径 (𝑟, 𝑟𝑠1, …, 𝑟𝑠𝑖, 𝑟𝑠′1, …, 𝑟𝑠′𝑘, 𝑟′) (𝑖 ≥ 0, 𝑘 ≥ 1),使得 𝑟𝑠𝑖= 𝑟𝑠 且 𝑟𝑠′1= 𝑟𝑠′。也就是说,这样的 (𝑟, 𝑟′) 一定不在 𝐼𝑇 (𝑂𝑇 (εcol)) 中。根据 k 向前路径的定义,其他情况也成立。

第一种情况是使用 G𝑖 的 LAE 检查的,因为 (𝑟𝑠, 𝑟𝑠′) 已为 G𝑖 生成。第二种情况也是通过 G𝑖 的 LAE 检查的,因为候选目标顶点是按时间戳递增顺序处理的。对于第三种情况,我们需要维护一个附加状态,即会话之间的第一个附加边 the first appended edges (FAE)。这种情况是通过 G𝑖+1 的 FAE 检查的。

在 G𝑖 和 G𝑖+1 之间生成分区间边后,PSSFS 合并所有已解释的状态。我们省略了如何合并的细节,因为从定义上看它很简单。

现在我们解释如何并行化传递归约。我们可以使用任何支持局部传递归约和分层合并的并行传递归约算法。为了计算 GIT[OT] 的传递归约 GIT[OT]𝑡𝑟,我们需要计算传递闭包 transitive closure GIT[OT]𝑡𝑐。这里,当且仅当 GIT[OT] 中有一条从 𝑟 到 𝑟′ 的路径时,边 (𝑟, 𝑟′) ∈ 𝐸(GIT[OT]𝑡𝑐 )。

对于每个顶点𝑣,我们需要维护一组可到达𝑣的顶点作为状态。在合并阶段,需要更新合并依赖关系图的传递闭包,因为会额外生成分区间边。我们不需要更新 VR 中所有顶点的状态,而是需要更新 1) SCR 中的请求、2) 每个𝑜𝑏𝑗 的第一个提交请求、3) 在第一个访问𝑜𝑏𝑗 的提交请求之前访问𝑜𝑏𝑗 的每个对象𝑜𝑏𝑗 的非提交请求以及 4) 每个会话的第一个和最后一个请求的状态。仅更新这些顶点的状态就足够了,因为在合并阶段这些顶点之间会生成额外的边。第 7 节中的实验表明,我们高效的合并策略的开销可以忽略不计。


7 实验

我们的实验目标如下。SSFS(G) 表示具有依赖关系图 G 的 SSFS。

• 对于各种工作负载(包括实际工作负载),SSFS 始终显著优于 RBSS(第 7.2 至 7.3 节)。
• SSFS(GIT[OT]) 在效率和大小方面均优于具有其他依赖关系图的 SSFS(第 7.2 至 7.4 节)。
• PSSFS 实现了几乎线性的加速(第 7.5 节)。

7.1 实验设置

工作负载。我们使用两个 OLTP 基准,因为我们的主要客户工作负载是 OLTP:TPCC [1] 和 SD 基准 [4]。这些基准是具有代表性的,模拟了我们的客户工作负载。TPC-C 基准是一个标准的 OLTP 基准,它模拟了一家拥有仓库的批发公司。我们将仓库数量设置为 100。数据库由九个表组成。在第 7.2 节中,我们按仓库 ID 对表进行分区,以显示每个表分区都是一个对象的情况。SD 基准模拟了包含六个交易的销售和分销场景。每个交易都涉及几个对话步骤 [24]。我们使用 SD 基准的 3 层架构版本。我们改变应用程序服务器实例的数量来改变会话的数量。我们使用 5000 个用户和一秒的思考时间。SD 基准的实验结果显示出与 TPC-C 相似的趋势。由于篇幅限制,我们省略了它们,并鼓励读者参考我们的技术论文以获取更多信息 [7]。我们还使用了大规模的真实客户工作负载,该工作负载是从真实的基于云的业务应用系统中捕获的,该系统主要用于处理企业的采购业务。它捕获了 18 分钟,有来自 7,393 个会话的 890 万个请求。访问了 2,812 个表,33% 的事务包含更新。写入事务平均包含 9.3 个未提交请求,其中 INSERT、SELECT、UPDATE、DELETE 和 MERGE_INTO 语句分别占 60%、29%、8.5%、1.5%、1%。写入事务平均访问 4.2 个表并更新 2.7 个表。只读事务平均包含 1.4 个未提交请求,读取 2.2 个表。

运行环境。我们在一台 Linux 机器上进行了实验,该机器有四个 Intel® Xeon® CPU E7-8880 v4 CPU、1TB RAM 和一个 745GB SSD。除第 7.5 节外,我们对所有实验都使用了单线程。

测量。我们测量了经过的时间,并将其细分为边生成和传递归约时间。我们使用边的数量来报告依赖图的大小。我们还提供了由传递归约生成的最小依赖图的大小,标记为 TR。捕获的事务数可能会随着给定的捕获持续时间而变化。因此,我们根据捕获的事务数对测量值进行了标准化。对于 SSFS,我们还测量了状态的内存消耗。表 3 总结了实验参数,其范围和默认值以粗体标记。在这里,我们根据 [28] 使用 30 分钟作为默认捕获持续时间。超时标记为 TO,设置为 10 小时。为了分析日志记录粒度的权衡,我们报告了不同数量的表分区的端到端时间细分,包括捕获时间、依赖图生成时间、重放时间和重放的预处理/后处理时间(即导入语句和导出结果)。

在这里插入图片描述

竞争对手。我们使用增强版的 RBSS、RBSS+ 和 RBSSL,其表现优于 RBSS。RBSS+ 生成无 IT 图而不是 GRBSS。为了找到 𝑟𝑚𝑖𝑛(在第 4 节中),RBSS+ 会向后扫描,直到找到具有传入边的请求。与 SSFS 不同,由于在捕获的工作负载中执行 DB 恢复任务(例如表初始化)的会话很短,RBSS+ 变得明显更慢;对于 RBSS+ 而言,在这样的会话中查找传入边的成本很高。为了进行公平的比较,我们允许所有算法忽略这些会话。RBSSL 是 RBSS+ 的优化版本,它通过记忆 RBSS 的 LAE 表,尽管这种记忆是我们技术的一部分。RBSSL 使用 LAE 在 𝑂(1) 中找到 𝑟𝑚𝑖𝑛

我们并行化 RBSS+ 和 RBSSL(PRBSS+ 和 PRBSSL)。给定一对会话(𝑠,𝑠′),RBSS 依次生成从 𝑠 到 𝑠′ 的边。不同会话对的边并行生成。对于传递归约,我们使用水平分区,如 PSSFS 中一样。

7.2 TPC-C 的实验结果

在这里插入图片描述

不同的捕获持续时间 图 8a 和 9a 分别显示了 TPC-C 中不同捕获持续时间的经过时间和边集大小。图 9a 经验性地证实了第 3 节中维恩图中的包含关系。所有算法的经过时间都随着捕获持续时间线性增加。就耗时而言,SSFS(GIT[OT]) 的表现比 SSFS(GIT)、SSFS(GOT)、SSFS(GOTIT)、RBSS+ 和 RBSSL 分别高出 1.6、1.6、1.4、20.9 和 15.9。这是因为 SSFS(GIT[OT]) 的大小仅比最小依赖图大 5%,并且同时实现了图的紧凑性和算法的效率。就边生成时间而言,SSFS(GOT) 是 SSFS 中最慢的,这是因为 1) 将候选源顶点插入临时表和 2) 执行昂贵的分组操作(如第 5.3 节中分析的那样)的开销。传递减少时间几乎与边集大小成正比。

客户端数量变化 图 8b 和 9b 分别显示了 TPC-C 中客户端数量变化的耗时和边集大小。随着客户端数量的增加,会话数量也会增加。RBSS+ 和 RBSSL 的耗时随着客户端数量的增加而超线性增加。SSFS(GIT[OT]) 和 SSFS(GOT) 的耗时随着客户端数量的增加而缓慢增加,因为 | εOT | 无论客户端数量如何都几乎保持不变,如图 9b 所示。SSFS(GOTIT) 和 SSFS(GIT) 的耗时几乎线性增加,因为这些算法中每个请求的传入边的数量也线性增加。它们的依赖图的大小线性增加,如图 9b 所示。

表分区数量变化 图 8c 和 9c 分别显示了表分区数量变化的耗时和边集大小。随着表分区数量的增加,RBSS+ 和 RBSSL 的耗时会增加,因为第 4 节中的 𝑑𝑎𝑣𝑔 会因分区数量的改变而减小。SSFS(GIT[OT]) 的耗时几乎保持不变,因为 | εOT | 也几乎保持不变。相反,SSFS(GIT) 的耗时会减少,因为 | εIT | 也会减少。随着表分区数量的增加,| εIT | 会减少,因为 εcol 的大小会减小。这解释了为什么随着分区数量的增加,SSFS(GIT) 的耗时会略有减少。但是,| εOT | 几乎保持不变,因为当对象数量增加时,对象传递路径修剪边的概率会降低。SSFS(GIT[OT]) 是最快的,优于其他依赖图的 SSFS。这是因为它的边集大小几乎接近 TR,并且生成 GIT[OT] 的成本最便宜,如第 5 节所述。

在这里插入图片描述

端到端时间细分 图 10 显示了 TPC-C 中表分区数变化时 SSFS(GIT[OT])、RBSS+ 和 RBSSL 的端到端时间细分。重放时间受表分区数和客户端数的影响。在图 10a 中,没有分区的重放时间比捕获时间长 25%。这是因为表级日志记录中的人为依赖关系会导致重放速度变慢。但是,随着表分区数增加到 64 个,重放时间比捕获时间快 26%,因为访问不同分区的请求可以并行重放。在图 10b 中,随着重放并发性随着 256 个客户端的增加而增加,重放时间比捕获时间快 58%。这种现象解释如下。在捕获时间内,随着客户端数量从 64 个增加到 256 个,捕获吞吐量仅增加 5%,因为写入冲突也会增加。然而,如第 3.6 节所述,由于重放期间不会发生写冲突,因此当客户端数量从 64 个增加到 256 个时,重放吞吐量会增加 67%。RBSS+ 和 RBSSL 的依赖图生成时间分别占端到端总时间的 89% 和 86%,这是瓶颈。

εcol 的大小 表 4 显示了 | VR |、| εcol | 和 | ε𝑡𝑟 |,这些结果适用于改变捕获持续时间和表分区数。我们省略了改变客户端数量的结果,因为趋势没有变化。在所有情况下,εcol 中的冗余边数(即 | εcol − ε𝑡𝑟 |)都比 | ε𝑡𝑟 | 大至少五个数量级。因此,由于图 9 中 εOTIT 的平均边数仅比 ε𝑡𝑟 多 8%,因此超过 99% 的冗余边因 IT 和 OT 而被修剪。这表明两种类型的冗余非常普遍。其他工作负载也显示出类似的趋势。

在这里插入图片描述

7.3 真实客户工作负载的实验结果

在这里插入图片描述

图 11 显示了大规模真实客户工作负载中的已用时间和边集大小。在图 11a 中,边生成时间的趋势与具有 128 个客户端的 TPC-C 的趋势相似。请注意,在 TPC-C 中,客户端数量是已用时间的主要因素,而不是表分区数量。SSFS(GOT) 和 SSFS(GOTIT) 的边生成时间比其他的长 2-3 倍,就像在具有 128 个客户端的 TPC-C 中一样。RBSS+ 和 RBSSL 达到超时。传递减少时间与边集大小成正比。在图 11b 中,边集大小的趋势与具有 64 个表分区的 TPC-C 的趋势相似。GOT 最大,因此 SSFS(GOT) 的传递减少比其他图表长三倍多。虽然 |εIT|比 |εOT| 小 7.8 倍,SSFS(GIT) 的边生成时间比 SSFS(GOT) 慢两倍多。这是因为 SSFS(GIT) 首先从 SCR 扫描 IT(0)-free 图的候选,然后使用 LAE 修剪具有 k-forward 路径的边。SSFS(GIT) 中从 SCR 扫描的候选数量比 SSFS(GOT) 中从 OTC 扫描的候选数量大四倍。SSFS(GIT[OT]) 在效率和紧凑性方面仍然最好。

7.4 内存使用情况

在这里插入图片描述

表 5 显示了 TPC-C 默认配置、具有 64 个表分区的 TPC-C(表示为 TPC-C64)以及大规模真实客户工作负载下 SSFS 中状态的内存使用情况,具体取决于依赖关系图的类型。在默认配置的 TPC-C 中,除 SSFS(GOT) 外,状态占用的内存不到 100 kB。但是,SSFS(GOT) 的内存消耗明显更高。这是因为当存在未修改的表(例如 TPC-C 中的 ITEM 表)时,SSFS(GOT) 中的 OTC 会无限增长。与 SSFS(GOT) 不同,SSFS(GIT[OT]) 和 SSFS(GOTIT) 中的 OTC 为每个会话最多存储一个顶点,因此它们的 OTC 的内存使用量限制为 𝑂(|𝑆 | · |𝑂|)。在 TPC-C64 中,随着 |𝑂| 的增加,状态的内存使用量最多增加 32 倍。状态所需的最大空间仅为 269 MB。在具有 7,393 个会话的大规模实际客户工作负载中,状态的内存使用量最多增加 1 GB。请注意,SCR 和 LAE 的空间复杂度为 𝑂(|𝑆 | · |𝑂|) 和 𝑂(|𝑆|2)。因此,SSFS(GIT[OT]) 消耗的内存比 SSFS(GIT) 和 SSFS(GOTIT) 少,因为它不维护 SCR。对于这两种工作负载,SSFS(GIT[OT]) 都需要现代服务器系统中可管理的状态大小。

7.5 PSSFS 的可扩展性

在这里插入图片描述

图 12 显示了通过改变 TPC-C 中的线程数,PSSFS(GIT[OT])、PRBSS+ 和 PRBSSL 与串行 SSFS(GIT[OT]) 相比的加速比。加速比定义为串行 SSFS(GIT[OT]) 的耗时与并行算法的耗时之比。随着线程数量的增加,PSSFS 实现了几乎线性的加速,合并阶段的开销最小。

虽然 PRBSS+ 和 PRBSSL 实现了几乎线性的加速,但 PSSFS(GIT[OT]) 的平均性能比它们高出 17.2 倍和 12.4 倍。由于趋势相似,我们省略了其他工作负载的结果。

8 相关工作

数据库重放的概念最早是在 [20] 中提出的。它提供了一种比必要更严格的同步机制,导致并发性较低且性能较差。

Morfonios 等人[28] 通过提出 RBSS 增强了此模式。我们证明 RBSS 生成了 GIT(0) 和 GIT(1) 之间的依赖关系图。Snowtrail [38] 专注于使用不同的云实例无缝执行生产查询,而不会干扰云环境中客户的生产工作负载。Snowtrail 的重放机制类似于 Oracle Database Replay [20]。这些技术会生成许多冗余边,随后通过昂贵的传递归约进行修剪。

Flex [11] 是一个用于测试和调整生产数据库实例的原型系统。Flex 主要加载特定快照 𝑠 并在 𝑠 上执行操作,例如用户定义的可执行文件,不支持细粒度的工作负载重放。

Doppler [12] 是一个用于将本地数据平台迁移到平台即服务 (PaaS) 产品的推荐引擎。然而,Doppler 并不利用工作负载信息,而是利用基本信息进行推荐:性能计数器、所有可能的云目标库存单位 (Stock Keeping UnitsSKU) 以及每个 SKU 的实时定价。然后,它依靠机器学习模型来推荐合适大小的 SKU。相反,DRS 专注于细粒度的工作负载信息,以便安全地迁移到新的数据库版本或硬件。虽然这些努力与我们的方法正交,但我们相信我们的工作是对它们的补充。

Diametrics [13] 是一个用于端到端基准测试和查询引擎性能监控的框架。它专注于对各种查询引擎进行可重复的基准测试,而不是诊断任何软件/硬件升级所面临的性能问题。TROD [26] 是一个用于调试 Web 应用程序的框架。它捕获并按顺序重新运行事务以重现错误。

记录一般程序的运行并使用日志重放以调试非确定性故障已被广泛研究 [10, 29, 30]。[10] 利用一致性放松来调试多核环境中的数据竞争。[29] 提出了一种近似重放系统,该系统将程序生成的一系列事件划分为事务,然后在事务级别记录冲突的操作。然而,这种方案不能保证正确的重放,而这在我们的目标应用程序中至关重要。[30] 利用硬件辅助虚拟化扩展来实现基于软件的确定性重放系统。但是,所有这些方法都是针对一般程序的,在记录共享内存上的所有冲突操作时会产生大量开销。但是,DRS 是专为数据库工作负载设计的定制重放系统。

有利用依赖关系图来并行化恢复的恢复系统 [27]。自适应日志记录 [40] 需要捕获每个事务的读写集中的所有元组 ID,扫描操作的数量可能很大。与我们相比,这可能导致edge生成的大量开销。在我们的生产系统中维护所有读/写集也是一项挑战。即使自适应日志记录使用更粗的粒度,重放生成的依赖关系图也不能保证快照隔离中的输出确定性,这是 DRS 中最重要的要求。在 [40] 中,每个节点代表一个事务(即存储过程调用)。考虑两个事务 𝑇1 和 𝑇2,它们在捕获阶段同时访问包含元组 𝑟1 和 𝑟2 的公共表。假设𝑇1 读取𝑟1,𝑇2 读取𝑟2。𝑇1 分别使用它们读取的值写入𝑟2,𝑇2 写入𝑟1。此外,𝑇1 在𝑇2 提交之前提交(即写入偏差)。然后,在生成的依赖图中,存在从𝑇1 到𝑇2 的边。因此,自适应日志记录在𝑇1 之后重播𝑇2。但是,与捕获期间捕获的数据库状态相比,这会导致不同的数据库状态。这将在我们的 DRS 中报告为错误。请注意,这不是问题,因为事务是在 H-store(自适应日志记录的底层 DBMS)中串行执行的。Pacman [37] 使用程序分析技术构建依赖图。然而,Pacman 假设所有事务都作为存储过程实现并且是提前知道的,这严​​重限制了用户应用程序并使其无法用于一般 DRSs。

还有四种类型的依赖图,所有这些依赖图生成算法都不能轻易应用于我们的 DRS:(G1)由锁管理器管理的用于死锁检测的依赖图 [19, 36],(G2)用于在应用的(弱)隔离级别下检测给定事务工作负载中可能出现的异常的依赖图 [21, 25],(G3)用于调度事务以减少运行时冲突的依赖图 [15–17, 35],以及(G4)用于使副本与主数据库一致的依赖图 [23]。通过将每个事务与图中的所有现有事务进行比较,在副本上动态生成依赖图。这里,一个节点对应于一个事务,而不是一个请求。即使依赖图比我们的要粗得多,当顶点很多时,系统也会限制顶点的插入。请注意,G1 和 G2 专注于查找维护的依赖图中存在的循环。G3 专注于通过重新排序待处理的请求来减少事务间冲突。 G4 仅关注复制的写入事务之间的排序,而我们的 DRS 应该考虑写入和读取请求的排序。

图稀疏化是减少边集大小同时近似保留图的属性(例如切割大小或顶点之间的距离)的问题 [8, 18, 31, 33]。尽管某些图稀疏器(例如 [33])可以在近乎线性的时间内减少图,但它们不能保证保留所有必要的依赖边。但是,正如我们的问题定义所述,必须保留 G𝑡𝑟𝑐𝑜𝑙 中的所有边,DRS 才能实现输出确定性。因此,这些方法不能轻易应用于我们的问题。

9 结论

在本文中,我们提出了一种全面而实用的解决方案,用于数据库重放系统 (DRS) 中的快速依赖图生成。在第 3 节中,我们正式提出了 DRS 的四种依赖图类型的分类。在第 4 节中,我们表明,由于对每个请求进行重复的向后扫描,最先进技术的最坏时间复杂度为 𝑂(| VR |2)。

我们表明,它的依赖图是 IT(0)-free 图和 IT(1)-free 图之间的图,可能有许多冗余边。为了解决这个具有挑战性的问题,在第 5 节中,我们提出了一种新颖的依赖关系生成算法 SSFS,通过简洁地维护生成边所需的信息来扫描一次请求。我们在领先的商业 DBMS 中实现了我们的解决方案。使用我们的 DRS 进行的实验表明,与最先进的技术相比,它将依赖关系图生成时间显著缩短了两个数量级。

致谢

作者要感谢 Jaehyun Lim 帮助进行 TPC-C 基准的实验设置。这项工作得到了韩国政府 (MSIT) 资助的韩国国家研究基金会 (NRF) 拨款 (编号 NRF-2021R1A2B5B03001551)。

REFERENCES

[1] 2010. TPC Benchmark C. http://www.tpc.org/tpcc/. Accessed: 2022-06-23.
[2] 2020. Oracle Database 19c: Real Application Testing Overview. Technical Report.
[3] 2022. Capturing and Replaying Workloads. https://help.sap.com/docs/SAP_HANA_COCKPIT/afa922439b204e9caf22c78b6b69e4f2/4f3c88249d484b0faba0e6b27b82c2dd.html?locale=en-US
[4] 2022. SAP Standard Application Benchmarks. https://www.sap.com/about/benchmark.html.
[5] 2022. Sql server distributed replay. https://learn.microsoft.com/en-us/sql/tools/distributed-replay/sql-server-distributed-replay?view=sql-server-ver16
[6] 2023. The Internals of PostgreSQL. https://www.interdb.jp/. Accessed: 2023-10-20.
[7] 2023. Technical Report. https://sites.google.com/view/systemx-replay
[8] Kook Jin Ahn, Sudipto Guha, and Andrew McGregor. 2012. Graph sketches: sparsification, spanners, and subgraphs.In Proceedings of the 31st ACM SIGMOD-SIGACT-SIGAI symposium on Principles of Database Systems. ACM, Scottsdale Arizona USA, 5–14. https://doi.org/10.1145/2213556.2213560
[9] Alfred V. Aho, Michael R Garey, and Jeffrey D. Ullman. 1972. The transitive reduction of a directed graph. SIAM J.Comput. 1, 2 (1972), 131–137.
[10] Gautam Altekar and Ion Stoica. 2009. ODR: Output-deterministic replay for multicore debugging. In Proceedings of the ACM SIGOPS 22nd symposium on Operating systems principles. 193–206.
[11] Nedyalko Borisov and Shivnath Babu. 2013. Rapid experimentation for testing and tuning a production database deployment. Proceedings of the 16th International Conference on Extending Database Technology, 125–136.
[12] Joyce Cahoon, Wenjing Wang, Yiwen Zhu, Katherine Lin, Sean Liu, Raymond Truong, Neetu Singh, Chengcheng Wan, Alexandra Ciortea, Sreraman Narasimhan, and Subru Krishnan. 2022. Doppler: automated SKU recommendation in migrating SQL workloads to the cloud. Proceedings of the VLDB Endowment 15, 12 (Aug. 2022), 3509–3521. https://doi.org/10.14778/3554821.3554840
[13] Shaleen Deep, Anja Gruenheid, Kruthi Nagaraj, Hiro Naito, Jeff Naughton, and Stratis Viglas. 2021. Diametrics:benchmarking query engines at scale. ACM SIGMOD Record 50 (2021), 24–31. Issue 1.
[14] Reinhard Diestel. 2005. Graph theory 3rd ed. Graduate texts in mathematics 173 (2005), 33.
[15] Bailu Ding, Lucja Kot, and Johannes Gehrke. 2018. Improving optimistic concurrency control through transaction batching and operation reordering. Proceedings of the VLDB Endowment 12, 2 (2018), 169–182.
[16] Jose M Faleiro and Daniel J Abadi. 2014. Rethinking serializable multiversion concurrency control. arXiv preprint arXiv:1412.2324 (2014).
[17] Jose M Faleiro, Daniel J Abadi, and Joseph M Hellerstein. 2017. High performance transactions via early write visibility. Proceedings of the VLDB Endowment 10, 5 (2017).
[18] Wai Shing Fung, Ramesh Hariharan, Nicholas J.A. Harvey, and Debmalya Panigrahi. 2011. A general framework for graph sparsification. In Proceedings of the forty-third annual ACM symposium on Theory of computing. ACM, San Jose California USA, 71–80. https://doi.org/10.1145/1993636.1993647
[19] Donald Fussell, Zvi M Kedem, and Abraham Silberschatz. 1981. Deadlock removal using partial rollback in database systems. In Proceedings of the 1981 ACM SIGMOD international conference on Management of data. 65–73.
[20] Leonidas Galanis, Supiti Buranawatanachoke, Romain Colle, Benoît Dageville, Karl Dias, Jonathan Klein, Stratos Papadomanolakis, Leng Leng Tan, Venkateshwaran Venkataramani, Yujun Wang, et al. 2008. Oracle database replay. In Proceedings of the 2008 ACM SIGMOD international conference on Management of data. 1159–1170.
[21] Yifan Gan, Xueyuan Ren, Drew Ripberger, Spyros Blanas, and Yang Wang. 2020. IsoDiff: debugging anomalies caused by weak isolation. Proceedings of the VLDB Endowment 13, 12 (2020).
[22] Herodotos Herodotou, Nedyalko Borisov, and Shivnath Babu. 2011. Query optimization techniques for partitioned tables. In Proceedings of the 2011 ACM SIGMOD International Conference on Management of data. ACM, Athens Greece,49–60. https://doi.org/10.1145/1989323.1989330
[23] Chuntao Hong, Dong Zhou, Mao Yang, Carbo Kuo, Lintao Zhang, and Lidong Zhou. 2013. KuaFu: Closing the parallelism gap in database replication. In 2013 IEEE 29th International Conference on Data Engineering (ICDE). IEEE,1186–1195.
[24] Bahman Javadi Isfahani. 2017. Evaluating a modern in-memory columnar data management system with a contemporary OLTP workload. (2017).
[25] Kyle Kingsbury and Peter Alvaro. 2020. Elle: inferring isolation anomalies from experimental observations. Proceedings of the VLDB Endowment 14, 3 (Nov. 2020), 268–280. https://doi.org/10.14778/3430915.3430918
[26] Qian Li, Peter Kraft, Michael Cafarella, Çağatay Demiralp, Goetz Graefe, Christos Kozyrakis, Michael Stonebraker, Lalith Suresh, and Matei Zaharia. 2023. Transactions Make Debugging Easy… In CIDR.
[27] Arlino Magalhaes, Jose Maria Monteiro, and Angelo Brayner. 2022. Main Memory Database Recovery: A Survey.Comput. Surveys 54, 2 (March 2022), 1–36. https://doi.org/10.1145/3442197
[28] Konstantinos Morfonios, Romain Colle, Leonidas Galanis, Supiti Buranawatanachoke, Benoît Dageville, Karl Dias, and Yujun Wang. 2011. Consistent synchronization schemes for workload replay. Proceedings of the VLDB Endowment 4, 12 (2011), 1225–1236.
[29] Ernest Pobee, Xiupei Mei, and Wing Kwong Chan. 2019. Efficient transaction-based deterministic replay for multithreaded programs. In Proceedings of the 34th IEEE/ACM International Conference on Automated Software Engineering.760–771.
[30] Shiru Ren, Le Tan, Chunqi Li, Zhen Xiao, and Weijia Song. 2017. Leveraging hardware-assisted virtualization for deterministic replay on commodity multi-core processors. IEEE Trans. Comput. 67, 1 (2017), 45–58.
[31] Venu Satuluri, Srinivasan Parthasarathy, and Yiye Ruan. 2011. Local graph sparsification for scalable clustering. In Proceedings of the 2011 ACM SIGMOD International Conference on Management of data. ACM, Athens Greece, 721–732. https://doi.org/10.1145/1989323.1989399
[32] Klaus Simon. 1988. An improved algorithm for transitive closure on acyclic digraphs. Theoretical Computer Science 58,1-3 (1988), 325–346.
[33] Daniel A. Spielman and Shang-Hua Teng. 2004. Nearly-linear time algorithms for graph partitioning, graph sparsification, and solving linear systems. In Proceedings of the thirty-sixth annual ACM symposium on Theory of computing.ACM, Chicago IL USA, 81–90. https://doi.org/10.1145/1007352.1007372
[34] Xian Tang, Junfeng Zhou, Yaxian Qiu, Xiang Liu, Yunyu Shi, and Jingwen Zhao. 2020. One Edge at a Time: A Novel Approach Towards Efficient Transitive Reduction Computation on DAGs. IEEE Access 8 (2020), 38010–38022.
[35] Alexander Thomson, Thaddeus Diamond, Shu-Chun Weng, Kun Ren, Philip Shao, and Daniel J Abadi. 2012. Calvin: fast distributed transactions for partitioned database systems. In Proceedings of the 2012 ACM SIGMOD international conference on management of data. 1–12.
[36] Gerhard Weikum and Gottfried Vossen. 2001. Transactional information systems: theory, algorithms, and the practice of concurrency control and recovery. Elsevier.
[37] Yingjun Wu, Wentian Guo, Chee-Yong Chan, and Kian-Lee Tan. 2017. Fast Failure Recovery for Main-Memory DBMSs on Multicores. In Proceedings of the 2017 ACM International Conference on Management of Data. ACM, Chicago Illinois USA, 267–281. https://doi.org/10.1145/3035918.3064011
[38] Jiaqi Yan, Qiuye Jin, Shrainik Jain, Stratis D Viglas, and Allison Lee. 2018. Snowtrail: Testing with production queries on a cloud database. Proceedings of the Workshop on Testing Database Systems, 1–6.
[39] C-Q Yang and Barton P Miller. 1988. Critical path analysis for the execution of parallel and distributed programs. In The 8th International Conference on Distributed. Computing Systems, 366–367.
[40] Chang Yao, Divyakant Agrawal, Gang Chen, Beng Chin Ooi, and Sai Wu. 2016. Adaptive Logging: Optimizing
Logging and Recovery Costs in Distributed In-memory Databases. In Proceedings of the 2016 International Conference on Management of Data. ACM, San Francisco California USA, 1119–1134. https://doi.org/10.1145/2882903.2915208

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2158744.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

win10 win11 设置文件权限以解决Onedrive不能同步问题

初级代码游戏的专栏介绍与文章目录-CSDN博客 我的github&#xff1a;codetoys&#xff0c;所有代码都将会位于ctfc库中。已经放入库中我会指出在库中的位置。 这些代码大部分以Linux为目标但部分代码是纯C的&#xff0c;可以在任何平台上使用。 源码指引&#xff1a;github源…

蓝牙AOA基站助力打造智慧医院管理系统

随着科技的飞速发展&#xff0c;智慧医院的概念逐渐深入人心。其中&#xff0c;蓝牙AOA&#xff08;到达角&#xff09;定位技术以其高精度、低功耗、低成本等优势&#xff0c;在智慧医院建设中扮演着重要角色。本文将深入探讨蓝牙AOA基站如何助力智慧医院的建设与发展。 一、蓝…

CVE-2024-4956实战

一、访问网页 二、公司信息域名收集 三、抓包读取敏感文件 Burpsuite抓包&#xff0c;修改GET请求即可&#xff08;GET /%2F%2F%2F%2F%2F%2F%2F..%2F..%2F..%2F..%2F..%2F..%2F..%2Fetc%2Fpasswd HTTP/1.1 &#xff09;

点赞系统实现

点赞功能是社交、电商等几乎所有的互联网项目中都广泛使用。虽然看起来简单&#xff0c;不过蕴含的技术方案和手段还是比较多的。 下面将分享之前做的判题OJ系统的点赞系统的思路。 1.需求分析 点赞功能与其它功能不同&#xff0c;没有复杂的原型和需求&#xff0c;仅仅是一…

shardingjdbc介绍

文章目录 1、shardingjdbc介绍1.1、读写分离、数据分片&#xff08;分库分表&#xff09;中间件&#xff1a;1.1.1、shardingsphere1.1.2、mycat 2、shardingjdbc-demo搭建2.1、创建项目2.2、添加依赖2.3、application.yml2.4、创建实体类 User2.5、创建 UserMapper2.6、创建测…

筛子排序(SieveSort)

当你手头有了支持AVX-512&#xff08;SIMD&#xff09;的i9-11900K&#xff0c;你最想做什么&#xff1f; i9-11900K&#xff1f;现在都14代了&#xff0c;谁还用11代的&#xff1f; 但12代以上就没有AVX-512了&#xff01; AVX-512有什么特别之处&#xff1f;有了这个硬件支…

How do you send files to the OpenAI API?

题意&#xff1a;你如何向 OpenAI API 发送文件 问题背景&#xff1a; For fun I wanted to try to make a tool to ask chatgpt to document rust files. I found an issue, in that the maximum message length the API allows seems to be 2048 characters. 为了好玩&…

LLMs之PE:AI for Grant Writing的简介、使用方法、案例应用之详细攻略

LLMs之PE&#xff1a;AI for Grant Writing的简介、使用方法、案例应用之详细攻略 目录 AI for Grant Writing的简介 AI for Grant Writing的使用方法—提示资源 1、提示集合 2、提示工程 3、快速提示 为了提高文本清晰度 为了让文本更有吸引力 为了改进文本的结构和流…

QT窗口无法激活弹出问题排查记录

问题背景 问题环境 操作系统: 银河麒麟V10SP1qt版本 : 5.12.12 碰见了一个问题应用最小化,然后激活程序窗口无法弹出 这里描述一下代码的逻辑,使用QLocalServer实现一个单例进程,具体的功能就是在已存在一个程序A进程时,再启动这个程序A,新的程序A进程会被杀死,然后激活已存…

MFC - 复杂控件_1

前言 各位师傅大家好&#xff0c;我是qmx_07&#xff0c;今天给大家讲解复杂控件的相关知识点 复杂控件 进度条 绘图准备: 调整windows窗口大小、设置 Progress Control 进度条设置Button 按钮 添加进度条变量 m_Progress,通过按钮触发 void CMFCApplication2Dlg::OnBnCl…

基于JAVA+SpringBoot+Vue的景区民宿预约系统

基于JAVASpringBootVue的景区民宿预约系统 前言 ✌全网粉丝20W,csdn特邀作者、博客专家、CSDN[新星计划]导师、java领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和毕业项目实战✌ &#x1f345;文末附源码下载链接&#x1f345; 哈…

Django 数据库配置以及字段设置详解

配置PostGre 要在 Django 中配置连接 PostgreSQL 数据库&#xff0c;并创建一个包含“使用人”和“车牌号”等字段的 Car 表 1. 配置 PostgreSQL 数据库连接 首先&#xff0c;在 Django 项目的 settings.py 中配置 PostgreSQL 连接。 修改 settings.py 文件&#xff1a; …

C++ set 和 map学习

一、set(multiset)的基本知识和使用 set也是一种我们直接可以使用的容器&#xff0c;使用应该包含 #include <set> 这个头文件。此处暂且不讨论其底层&#xff0c;只探讨set如何使用即可。 我们看到&#xff0c;set 的模板参数有三个&#xff0c;第一个就是其存储的数据…

Python学习——【4.6】数据容器:dict 字典、映射

文章目录 【4.6】数据容器&#xff1a;dict 字典、映射一、字典的定义二、字典的常用操作三、字典的遍历四、字典的特点 【4.6】数据容器&#xff1a;dict 字典、映射 一、字典的定义 为什么使用字典 以生活中的新华字典举例。它的功能是&#xff0c;让我们通过【字】&#x…

Linux基础4-进程2(Linux中的进程状态,R,S,D,T,t,Z,X,僵尸进程,孤儿进程)

上篇文章&#xff1a;Linux基础4-进程1&#xff08;操作系统&#xff0c;进程介绍&#xff0c;Linux进程相关命令&#xff0c;getpid&#xff0c;fork&#xff09;-CSDN博客 本章重点&#xff1a; 进程状态相关知识 目录 1. 进程常见的状态 2.普遍的操作系统理解进程状态 3.…

c++263抽象类在继承中的应用

#include<iostream> using namespace std; //计算程序员工资 //1.要求能计算出junior_programmmer mid-programer adv-programmer的工资 //2.要求利用抽象类统一界面 方便程序的扩展 ex&#xff1a;新增计算架构师architect的工资class programmer { public:virtual void…

CTFHub技能树-SQL注入-Cookie注入

使用bp发现cookie的注入点 id1&#xff0c;发现为数字型 首先使用联合查询 id 1 order by 2 id 1 order by 3发现2的时候有回显&#xff0c;而3的时候无回显 Cookie: id-1 union select database(),user() 后面开始库->表->列->数据 Cookie: id-1 union select 1…

WebLogic文件任意上传漏洞CVE-2018-2894

1.环境搭建 cd vulhub-master/weblogic/CVE-2018-2894 docker-compose up -d 2.获取环境后台密码 docker-compose logs | grep password 3.开启web服务测试 设置web服务测试开启:域结构->base-domain->高级 ->启动Web服务测试页 4.修改访问目录 先进入/ws_utc/co…

Java基础知识扫盲

目录 Arrays.sort的底层实现 BigDecimal(double)和BigDecimal(String)有什么区别 Char可以存储一个汉字吗 Java中的Timer定时调度任务是咋实现的 Java中的序列化机制是咋实现的 Java中的注解是干嘛的 Arrays.sort的底层实现 Arrays.sort是Java中提供的对数组进行排序的…

每日一练:对称二叉树

101. 对称二叉树 - 力扣&#xff08;LeetCode&#xff09; 一、题目要求 给你一个二叉树的根节点 root &#xff0c; 检查它是否轴对称。 示例 1&#xff1a; 输入&#xff1a;root [1,2,2,3,4,4,3] 输出&#xff1a;true示例 2&#xff1a; 输入&#xff1a;root [1,2,2,n…