PUMA论文阅读

news2024/9/25 9:40:40

PUMA: Efficient Continual Graph Learning with Graph Condensation

PUMA:通过图压缩进行高效的连续图学习

ABSTRACT

在处理流图时,现有的图表示学习模型会遇到灾难性的遗忘问题,当使用新传入的图进行学习时,先前学习的这些模型的知识很容易被覆盖。作为回应,持续图学习(CGL)作为一种新颖的范式出现,能够实现从静态图到流图的图表示学习。我们之前的工作 Condense and Train (CaT)是一个基于重放的 CGL 框架,具有平衡的持续学习过程,它设计了一个小而有效的内存库,用于通过压缩传入的图来重放数据。尽管CaT缓解了灾难性遗忘问题,但仍存在三个问题:(1)CaT中推导的图压缩算法仅关注标记节点,而忽略了未标记节点携带的丰富信息;(2)CaT的持续训练方案过分强调先前学到的知识,限制了模型从新添加的记忆中学习的能力;(3)CaT的压缩过程和重放过程都很耗时。 在本文中,我们提出了一种 PsUdo 标签引导记忆库(PUMA)CGL 框架,该框架从 CaT 扩展而来,通过克服上述弱点和限制来提高其效率和有效性。为了充分利用图中的信息,PUMA 在图压缩期间使用标记和未标记的节点扩展了节点的覆盖范围。此外,提出了一种从头开始的训练策略来升级之前的持续学习方案,以实现历史图和新图之间的平衡训练。此外,PUMA使用一次性prorogation和宽图编码器来加速训练阶段的图压缩和图编码过程,以提高整个框架的效率。 对四个数据集的广泛实验证明了现有方法的最先进的性能和效率。 代码已发布于https://github.com/superallen13/PUMA。

1 INTRODUCTION

首PUMA框架开发了一种伪标记来整合来自未标记节点的数据,增强了记忆库的信息量,解决了被忽视的未标记节点的问题。 其次,针对历史知识僵化的问题,设计了再培训策略。 这涉及在重放之前初始化整个模型,以平衡不同任务之间学到的知识,以获得更有效的决策边界,并确保更稳定的学习过程。最后,通过一次性传播方法简化了压缩过程中的重复消息传递计算,该方法一次性聚合整个传入图上相邻节点的消息,并且可以存储以供重复使用,从而显着减少了计算量。此外,还开发了包含更多神经元的宽图编码器来加速压缩过程中的收敛,从而提高压缩记忆的更新效率。最后,为了提高 CGL 模型的训练效率,提出了用多层感知器(MLP)来代替消息传递 GNN 的训练。由于其无边性质,PUMA 使 MLP 能够学习特征提取,并利用 GNN 来推断具有边缘的图。这些解决方案共同增强了基于图压缩的 CGL 框架的功效和效率。

本文提出了一种新颖的 PUMA框架,该框架是从 CaT 方法扩展而来的,具有以下实质性的新贡献:

  • 提出了一种伪标签引导记忆库,不仅可以利用全图中的信息来压缩标记节点,还可以压缩未标记节点。

  • 在重播阶段设计了再训练策略,以缓解所学知识不平衡的问题,从而获得有希望的整体表现。

  • 由于新开发的一次性传播、宽图编码器和带无边缘存储器的 MLP 训练等创新技术,压缩和训练速度显着提高,而不会影响性能。

  • 对四个数据集进行了广泛的实验和深入的分析,展示了PUMA 的有效性和效率。

CGL问题有两种不同的连续设置,任务增量学习(task-IL)和类增量学习(class-IL)。在task-IL中,模型只需要区分同一任务中的节点。 在 class-IL 中,模型需要对所有任务中的节点进行分类。

4 METHODOLOGY

PUMA 首先考虑带有伪标签的未标记节点来压缩输入图。PUMA 更新后,模型将从头开始使用 PUMA 初始化所有权重和训练。

img

4.1 Fast Graph Condensation by Distribution Matching

基于压缩的内存库存储压缩的合成图以近似历史数据分布。开发了一种具有分布匹配的高效图压缩方法,旨在保持合成数据与原始数据相似的数据分布。该方法用作重放图生成。

对于任务 T K \mathcal{T}_{K} TK,输入图 G k = { A k , X k , Y k } \mathcal{G}_{k}=\{\mathbf{A}_{k},\mathbf{X}_{k},\mathbf{Y}_{k}\} Gk={Ak,Xk,Yk},通过图压缩生成无边压缩图 G ~ k = { X ~ k , Y ~ k } \tilde{\mathcal{G}}_{k}=\{\tilde{\boldsymbol{X}}_{k},\tilde{\boldsymbol{Y}}_{k}\} G~k={X~k,Y~k}。在分布匹配方案下,图压缩的目标函数:

G ~ k ∗ = arg ⁡ min ⁡ G ~ k D i s t ( G k , G ~ k ) , \tilde{\mathcal{G}}_k^*=\arg\min_{\tilde{\mathcal{G}}_k}\mathrm{Dist}(\mathcal{G}_k,\tilde{\mathcal{G}}_k), G~k=argG~kminDist(Gk,G~k),

为了有效地操作压缩过程,这里使用具有随机权重的特征编码器而无需训练。分布匹配的目标是最小化具有随机参数 θ p \theta_p θp 的 GNN 给出的不同嵌入空间中的嵌入距离:

min ⁡ G ~ k ∑ θ p ∼ Θ ℓ M M D , θ p , \min_{{\tilde{\mathcal{G}}_{k}}}\sum_{{\theta_{p}\sim\Theta}}\ell_{{\mathrm{MMD},\theta_{p}}}, G~kminθpΘMMD,θp,

4.2 Pseudo Label-guided Edge-free Memory Bank

只有具有高置信度分数的伪标签才会被添加到分布匹配中。将来自分类器的节点 v v v 的 Logits 输入到 Softmax 函数中,以获得不同类的置信度分布:

c o n f i d e n c e ( v ) = max ⁡ ( S o f t m a x ( A , X ) [ v , : ] ) ) . \mathrm{confidence}(v)=\max(\mathrm{Softmax}(\mathbf{A},\mathbf{X})_{[v,:]})). confidence(v)=max(Softmax(A,X)[v,:])).

在获得伪标签的置信度分数后,可以使用阈值来过滤掉更确定的伪标签以减少噪声标签。分布匹配算法可以利用扩大的训练集来精确浓缩。PUMA的整体流程如算法1所示。PUMA 包含无边图,可以有效地存储在内存中并由 MLP 模型进行训练。

img

4.3 Train in Memory from Scratch

在PUMA中,由于基于压缩的存储体能够在不影响性能的情况下减小图的大小,因此通过使用压缩的输入图而不是整个输入图来解决不平衡问题是合理的。当输入图 G k \mathcal G_k Gk到达时,首先生成压缩图 G ~ k \tilde{\mathcal G}_k G~k,然后用它来更新之前的记忆 M k − 1 \mathcal M_{k−1} Mk1

M k = M k − 1 ∪ G ~ k . \mathcal{M}_{k}=\mathcal{M}_{k-1}\cup\tilde{\mathcal{G}}_{k}. Mk=Mk1G~k.

CaT 将基于 M k \mathcal M_k Mk 更新模型,而不是使用 M k − 1 \mathcal M_{k−1} Mk1 G k \mathcal G_k Gk 进行训练来处理不平衡问题:

ℓ C a T = L ( M k ; θ k ) = L ( G ~ k ; θ k ) + L ( M k − 1 ; θ k ) . \begin{aligned}\ell_{\mathrm{CaT}}&=\mathcal{L}(\mathcal{M}_{k};\theta_{k})\\&=\mathcal{L}(\tilde{\mathcal{G}}_{k};\theta_{k})+\mathcal{L}(\mathcal{M}_{k-1};\theta_{k}).\end{aligned} CaT=L(Mk;θk)=L(G~k;θk)+L(Mk1;θk).

这个过程被称为内存训练(TiM),因为该模型仅使用内存库中重放的图进行训练。

另一方面,基于重播的持续学习模型通常会在新传入的图到达时不断更新其权重,而不是从头开始重新训练。这种训练方案可能会遇到损失不平衡的挑战,即新压缩图上的损失大于历史压缩图上的损失。

为了更好的优化,在学习形成新的记忆之前,每层的模型权重都会被重新初始化。CGL骨干模型的架构保持不变,例如在持续训练过程中隐藏层的数量和隐藏层的维度。

综上所述,所提出的CaT框架使用图压缩来生成小而有效的重放图,并应用TiM方案来解决CGL中的不平衡学习问题。PUMA的整体流程如算法2所示。

img

5 EXPERIMENTS

5.1 Setup

5.1.1 Datasets

使用了四个用于节点分类任务的数据集:CoraFull、Arxiv、Reddit 和Products。每个数据集被分为一系列专注于节点分类问题的任务。每个任务都包含两个唯一类的节点作为传入图。在每个任务中,选择 60% 的节点作为训练节点,20% 的节点用于验证,20% 的节点用于测试。

平均性能(AP)平均性能平均值(mAP)、后向迁移(BWT)

5.2 Overall Results

基于压缩的 CGL 方法与 class-IL 和 task-IL设置中的所有基线进行比较。AP用于评估任务流结束时所有学习任务的平均模型性能,BWT 暗示模型在持续学习过程中的遗忘问题。 表 2 显示了所有基线和 PUMA 在 class-IL设置中的整体性能。与所有其他 CGL 基线相比,CaT 实现了最先进的性能。此外,结果表明,基于压缩的记忆库具有较小的BWT,这意味着压缩不仅可以保留模型的历史知识,还可以在训练当前任务的同时减少对先前任务的负面影响,从而缓解灾难性遗忘问题。

Untitled 5.png

5.3 Ablation Study

PUMA 框架有两个关键组件:伪标签引导记忆库和再训练。不带 PL 的变体表示在压缩过程中仅使用标记节点,不带 Re 的变体表示 CGL 模型根据先前任务的学习知识更新其权重。根据表 4,与没有这两种组件的变体相比,使用 PL 的变体提高了 AP 和 mAP。经过重新训练的变体也能提高整体性能。

Untitled 7.png

5.4 Effectiveness and Efficiency of Condensation-based Memory Banks

5.4.1 Different Memory Banks

图 3 表明 PUMA 比现有的基于采样的存储体更有效。PUMA 更快地达到最佳性能。PUMA 在所有评估案例中均获得最佳表现。当预算比率相对较小(例如 0.005、0.01)时,PUMA 的性能显着优于其他基于采样的存储体。一方面,CaT和PUMA使用较少的内存空间来准确地近似历史数据分布。另一方面,在训练阶段,模型需要在记忆库中传播消息。因此,小的存储体可以提高存储和计算效率。

Untitled 8.png

5.5 Balanced Learning with TiM

5.5.1 Different Methods with TiM

TiM 是一种即插即用的训练方案,适用于所有现有的基于重放的 CGL 方法。表 5 显示了使用和不使用 TiM 的不同基于重放的 CGL 方法的 mAP。TiM可以确保CGL模型的训练图具有相似的大小来处理不平衡问题,从而可以解决灾难性遗忘问题。

Untitled 9.png

5.6 Effectiveness of Retraining

虽然TiM有效缓解了类训练样本不平衡的问题,但它在持续训练过程中引入了新的挑战:任务损失的不平衡。发生这种情况是因为之前添加到记忆库的记忆已经被充分学习,与后来添加的记忆相比,损失更小。为了缓解这个问题,提出了重新训练策略,从头开始训练内存中的 CGL 模型。

5.6.1 Effectiveness

再训练有助于重新校准模型的知识和对新数据和现有数据的适应性,从而提高其整体性能。表 6 展示了没有和有重新训练的不同基于重放的方法的 mAP。

Untitled 11.png

5.7 Condense More by Pseudo-Labelling

本研究评估了伪标签对基于重放的 CGL 方法(例如 ER-GNN、SSM、CaT 和 PUMA)准确性的影响。 比较涉及在记忆阶段有和没有整合伪标签的场景。表 7 显示了两种条件下不同 CGL 方法的 mAP。

Untitled 13.png

对于基于压缩的图存储器,结合伪标记被证明是有效的。但是伪标记技术对于当前基于采样的存储体并没有产生类似的好处。

5.8 Wide Graph Encoder

宽图编码器包含更多具有随机初始化权重的神经元,可以随机提取非线性特征。图 6 显示,减小由窄编码器生成的原始图嵌入和压缩图嵌入之间的距离是不够的,因为一旦编码器重新初始化,它们之间仍然存在明显的分布间隙。更宽的图形编码器可以缩小这一差距。

Untitled 14.png

一次可以获得的神经元越多,原始数据在初始化空间中的潜在变换就越清晰,也就越容易通过不同的网络拟合数据的分布。数据的准确分布是必要的,因为在持续学习中,新的类不断出现,并且在回放过程中,模型需要重新学习不同类之间的决策边界。然而,更多的神经元花费更多的计算资源,实际中使用多个随机编码器。

5.9 Parameter Sensitivity

5.9.1 Different Dimensional Graph Encoders

该实验探索了图编码器的足够维度来优化 MMD 损失。图7显示了在持续学习过程中处理每个传入任务后,由各种维度图编码器生成的PUMA训练的模型的AP(%)。

Untitled 15.png

当编码器维度由于计算资源有限而受到限制时,由于模型的参数初始化空间不完整,模型性能会下降。随着图编码器维度的增加,CGL模型的性能得到了显着的提高。它表明,为了更好地覆盖模型参数的初始化空间,宽编码器是必不可少的。当计算资源有限时,使用更多随机的相对较小的图编码器也可以获得匹配的性能,但需要更多的压缩时间。

5.9.2 Neuron Activation

CGL 的标准节点分类仍将使用具有激活函数的编码器。mAP 用于衡量有效性。表 8 说明,对于不同的预算比率,具有激活函数的编码器对于整体图编码来说是更具竞争力的选择。

Untitled 16.png

5.10 Time Efficiency

对于基于重放的 CGL 方法,内存生成和模型训练是需要计算资源的两个主要部分。对于基于采样的方法(例如 ER-GNN 和 SSM),内存生成过程非常高效。虽然基于采样的方法不能忽略图压缩时间,但模型精度比基于采样的方法要好得多。对于CaT,内存生成的主要计算成本是原始图中的特征聚合。PUMA的存储体是无边的,可以忽略训练阶段的特征聚合操作,每层的权重可以通过MLP模型来学习。

Untitled 17.png

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1993049.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Redis6-秒杀

目录 全局唯一ID 实现优惠券秒杀下单 超卖问题 一人一单 全局唯一ID 全局ID生成器,是一种在分布式系统下用来生成全局唯一ID的工具,一般要满足下列特性: 为了增强ID的安全性,不直接使用Redis自增的数值,而是拼接一…

告别数据丢失烦恼,转转数据恢复和另外三款工具助你一臂之力!

不知道大伙儿有没有和我一样,到哪都喜欢拍照片和视频,加上办公上也是七七八八的各种格式的文件实在是多,所以电脑和手机等等设备上经常内存爆满需要清理,难免会出现不小心误删或者格式化、清空等等的情况,用过几款和转…

微服务实现-sleuth+zipkin分布式链路追踪和nacos配置中心

1. sleuthzipkin分布式链路追踪 在大型系统的微服务化构建中,一个系统被拆分成了许多微服务。这些模块负责不同的功能,组合成系统,最终可以提供丰富的功能。 这种架构中,一次请求往往需要涉及到多个服务。互联网应用构建在不同的软…

嵌入式day22

getpwuid 通过uid 获取用户名 uid 用户uid 返回值: 成功 返回用户名 失败 NULL getgrgid 通过gid 获取组名 gid 组名gid 返回值: 成功 返回组名 失败 NULL 1、获取秒数 2、转换为需要的格式 time 获得1970年到现在的秒数(系统时间…

IEC103设备数据 转 CCLink IE Field Basic项目案例

目录 1 案例说明 1 2 VFBOX网关工作原理 1 3 准备工作 2 4 配置VFBOX网关采集103设备数是 2 5 使用CCLINK协议转发数据 4 6 三菱PLC连接网关的CCLINK的设置 5 7 IEC103协议说明 9 8 案例总结 10 1 案例说明 设置网关采集IEC103设备数据把采集的数据转成CCLink IE Field Basic…

UDP服务器实现

目录 一、服务端创建 1.1、创建套接字 1.2、端口绑定 1.3、sockaddr_in结构体 1.4、字符串IP和整数IP说明 1.5、绑定好端口号的服务端代码 1.6、服务端代码 二、客户端创建 2.1、关于客户端的绑定问题 2.2、客户端代码 一、服务端创建 首先明确,这个简单…

ThinkPad T14p Gen1(21J7,21N3)原厂Windows11系统镜像下载

LENOVO联想ThinkPad 系列笔记本电脑原装出厂Win11系统安装包,恢复出厂开箱状态预装OEM系统 适用型号:T14p Gen1【21J7,21N3】 链接:https://pan.baidu.com/s/1bLHdQoQ9zsAeZgd4c0ie4A?pwdxps2 提取码:xps2 联想原装WIN系统自…

QT 布局管理器之QHBoxLayout

文章目录 概述.ui来看看Cmain.cpp运行 小结 概述 QHBoxLayout,在QT中是一个布局文件,而且相对来说还是比较简单的。接下来看下。 .ui 先看下在qt design中是如何用的,如下图: 就是这个布局文件,是一个xml的文件&am…

Redis之golang编程实战

Redis 介绍 官网:Redis - The Real-time Data Platform Redis 可作为数据库、缓存、流引擎和消息代理的开源内存数据存储。被用在不计其数的应用中。Redis 连续 5 年被评为最受欢迎的数据库,是开发人员、架构师和开源贡献者参与社区的中心。 Redis 是…

苹果计划推出付费版Apple Intelligence AI服务,费用高达20美元

本文首发于公众号“AntDream”,欢迎微信搜索“AntDream”或扫描文章底部二维码关注,和我一起每天进步一点点 苹果计划推出付费版Apple Intelligence AI服务 苹果公司正在计划推出一项新的高级人工智能服务,名为Apple Intelligence&#xff0…

关于嵌套循环之深入理解

关于嵌套循环之深入理解 # 外层循环遍历第一维(深度) for depth in range(len(cube)):# 中层循环遍历第二维(行)for row in range(len(cube[depth])):# 内层循环遍历第三维(列)for col in range(len(cube[d…

秒懂C++之进程状态及优先级

目录 一.进程状态 1.1 进程排队 1.2 进程状态 运行状态 阻塞状态 挂起状态 二.Linux环境下的进程状态 R运行状态 S睡眠状态 D磁盘休眠状态 T停止状态 X死亡状态 Z僵尸进程状态 三.进程优先级 基本概念 查看系统进程 用top命令更改已存在进程的nice 一.进程状态…

【数据结构】十大排序全面分析讲解及其对比分析(排序看懂就这篇!)

【数据结构】十大排序全面分析讲解及其对比分析 🔥个人主页:大白的编程日记 🔥专栏:数据结构 文章目录 【数据结构】十大排序全面分析讲解及其对比分析前言一.排序的概念及其运用1.1排序的概念1.2排序的应用 二.插入排序2.1 插入…

Gather:开启绝密社交和收益双重惊喜之旅

在数字时代,我们的隐私信息面临着严重的泄露风险,保护个人隐私变得尤为重要。基于区块链加专利硬件技术,Gather成为全球唯一实现真正绝密社交的DePIN社交产品,带来了划时代的社交体验。而其硬件产品G-BOX,不仅是你的隐…

Vercel Error: (Azure) OpenAI API key not found

题意:Vercel 错误:(Azure) OpenAI API 密钥未找到 问题背景: I implemented openAI API in my Next.js app with the help of langchain library and it works superb on localhost, but in Vercel (ProVersion) it throws an error: 我使用…

服务器磁盘扩容

一、扫描新硬件 如果通过命令: lsblk 没有看到新增的盘,使用如下命令,扫描新硬件 echo "- - -" > /sys/class/scsi_host/host0/scan二、查看磁盘和物理卷 查看新添加的硬盘设备名和物理卷的属性 fdisk -l pvdisplay下面的sdc是…

第四天博客顶顶顶

📑打牌 : da pai ge的个人主页 🌤️个人专栏 : da pai ge的博客专栏 ☁️宝剑锋从磨砺出,梅花香自苦寒来 ☁️运维工程师的职责:监…

论软件设计方法及其应写作框架软考高级论文系统架构设计师论文

论文真题 软件设计(Software Design,SD)根据软件需求规格说明书设计软件系统的整体结构、划分功能模块、确定每个模块的实现算法以及程序流程等,形成软件的具体设计方案。软件设计把许多事物和问题按不同的层次和角度进行抽象,将…

Spring的设计模式----工厂模式及对象代理

一、工厂模式 工厂模式提供了一种将对象的实例化过程封装在工厂类中的方式。通过使用工厂模式,可以将对象的创建与使用代码分离,提供一种统一的接口来创建不同类型的对象。定义一个创建对象的接口让其子类自己决定实例化哪一个工厂类,…

游乐园智慧向导小程序的设计

管理员账户功能包括:系统首页,个人中心,用户管理,票务信息管理,门票购买管理,路线介绍管理,系统管理 微信端账号功能包括:系统首页,票务信息,路线介绍&#…