CCSI: 数据无关类别增量学习的持续类特定印象| 文献速递-基于深度学习的多模态数据分析与生存分析

news2024/11/15 7:15:57

Title

题目

CCSI: Continual Class-Specific Impression for data-free class incremental learning

CCSI: 数据无关类别增量学习的持续类特定印象

01

文献速递介绍

当前用于医学影像分类任务的深度学习模型表现出令人鼓舞的性能。这些模型大多数需要在训练之前收集所有的训练数据并指定所有的类别。它们在部署期间训练一次深度学习模型,并期望其在所有后续数据上执行。然而,这种要求限制了在实际临床环境中的可行性,因为医学图像数据会不断收集并随着时间而变化,例如,当新疾病类型出现时。

一种解决这一挑战的有前途的方法是使系统能够进行持续或终身学习,这意味着部署的模型可以适应新数据,同时保持从以前数据中获得的信息。结合这些学习技术将使深度学习模型更灵活地适应医学数据集的不断扩展。医学持续学习已在各种增量场景中被利用(van de Ven等人,2022),考虑到新进数据的非静态特性。这些场景包括任务增量学习(González等人,2023;Liao等人,2022;Xu等人,2022;Kaustaban等人,2022;Chakraborti等人,2021),在这些场景中,引入了新的医学任务,例如,扩展一个分割网络到另一个身体区域;类别增量学习(Chee等人,2023;Yang等人,2021a;Li等人,2022),其中引入了新的疾病类别。

Abstract

摘要

在实际临床环境中,传统基于深度学习的分类方法在诊断新引入的疾病类型时会遇到困难,因为这些方法需要从所有疾病类别中获取样本进行离线训练。类别增量学习提供了一种有前途的解决方案,它通过适应已训练在特定疾病类别上的深度网络来处理新疾病。然而,灾难性遗忘问题会在适应模型到新数据时出现,导致早期类别的性能下降。之前提出的解决这一问题的方法需要永久存储以前的样本,这在医疗保健领域可能会带来隐私和存储法规方面的实际问题。为此,我们提出了一种新颖的无数据类别增量学习框架,通过对已学习类别进行数据合成,而不是存储先前类别的数据。我们的主要贡献包括获取称为“持续类特定印象”(CCSI)的合成数据,这些数据用于以前无法访问的训练类别,并提出了一种有效利用这些数据在引入新类别时更新网络的方法。我们通过对以前类别的训练分类模型的梯度进行数据反演,从每个类别的平均图像开始获取CCSI,这个过程受到医学图像中常见标志的启发,并在这个逐像素优化过程中使用持续归一化层统计作为正则化器。随后,我们通过结合合成数据和新类别数据来更新网络,并结合多种损失函数,包括一个用于在合成数据上训练的深度网络泛化到真实数据的域内对比损失、一个增加以前类别和新类别间分离的边缘损失,以及一个缓解训练数据中分布不平衡负面影响的余弦归一化交叉熵损失。大量实验表明,该框架在四个公共MedMNIST数据集和内部的心超电影系列中实现了最先进的性能,相较于基线无数据方法,分类准确率提高了高达51%。

Method

方法

This section is structured as follows. We begin by explaining theproblem setting of data-free incremental learning in Section 3.1. Next,in Section 3.2, we identify the challenges in the setting and give anoverview of our proposed pipeline, emphasizing three crucial factorsthat drive our design: (1) normalization layer, (2) data synthesis, and (3)loss functions*. Furthermore, we elaborate on the techniques suggestedto tackle the first two factors in Section 3.3. Finally, we present the newloss terms utilized to address the third factor in Section 3.4.

本节结构如下。我们首先在第3.1节解释无数据增量学习的问题设定。接下来,在第3.2节中,我们识别该设定中的挑战并概述我们提出的流程,强调驱动我们设计的三个关键因素:(1) 归一化层,(2) 数据合成,和 (3) 损失函数。此外,我们在第3.3节详细介绍了应对前两个因素的建议技术。最后,在第3.4节中,我们介绍了用于解决第三个因素的新损失项。

Conclusion

结论

In this work, we propose CCSI, a novel data-free class incrementallearning framework for medical image classification. In CCSI, we synthesize class-specific images by inverting from the trained model withclass-mean image initialization. We explore a recently introduced normalization layer – CN, to reduce overwriting moments during continualtraining and propose a novel statistic regularization using the frozenCN moments for image synthesis. Subsequently, we continue trainingon new classes and synthesized images using the proposed novel lossesto increase the utility of synthesized data by mitigating domain shiftbetween new synthesized and original images of old classes and alleviating catastrophic forgetting and imbalanced data issues among newand past classes. Experimental results for four MedMNIST datasets asbenchmark public datasets and in-house echocardiography cines as thelarge-scale and more complex dataset validate that CCSI outperformsthe state-of-the-art methods in data-free class incremental learningwith an improbable gap of up to 51% accuracy in the final task andget comparable results with the state-of-the-art data-saving rehearsalbased methods. Our proposed method shows the potential to applyincremental learning in many healthcare applications that cannot savedata due to memory constraints or private issues.

在这项工作中,我们提出了一种新颖的无数据类别增量学习框架——CCSI,用于医学图像分类。在CCSI中,我们通过从训练模型中反演并使用类别均值图像初始化来合成类别特定图像。我们探索了一种最近引入的归一化层——CN,以减少在持续训练期间的重写现象,并提出使用冻结的CN时刻进行图像合成的统计正则化。随后,我们继续在新类别和合成图像上进行训练,使用提出的新损失函数,通过缓解新合成图像与旧类别原始图像之间的域偏移,减轻灾难性遗忘和新旧类别之间数据不平衡问题,从而提高合成数据的实用性。对四个MedMNIST数据集作为基准公共数据集和内部心超电影系列作为大型和更复杂的数据集的实验结果验证了,CCSI在无数据类别增量学习中以高达51%的不可思议的准确率差距超越了最先进的方法,并且与最先进的数据保存演练方法取得了可比的结果。我们提出的方法显示了在许多由于内存限制或隐私问题而无法保存数据的医疗应用中应用增量学习的潜力。

Figure

图片

Fig. 1. Representation of data-free class incremental learning. 𝑓𝑖  −1 is the model trainedon previous data, while 𝑓𝑖 is the updated model with new classes. This approach enablesthe incremental learning of new classes added to a previously trained model withouthaving access to previous data. We propose to tackle this problem by synthesizingsamples of previous classes as the continual class-specific impression and adding themto the continual training paradigm. Best viewed in coloured print.

图1. 无数据类别增量学习的表示。𝑓𝑖  −1 是在先前数据上训练的模型,而 𝑓**𝑖 是包含新类别的更新模型。这种方法使得可以在不访问先前数据的情况下,对先前训练的模型进行新类别的增量学习。我们建议通过合成先前类别的样本作为持续类特定印象,并将其添加到持续训练范式中来解决这个问题。彩色打印效果最佳。

图片

Fig. 2. The class incremental learning pipeline of CCSI. Two main steps of CCSI contain: (1) Continual class-specific data synthesis (Section 3.3): Initialize a batch of images withthe mean of each class to synthesize images using a frozen model trained on the previous task, 𝑓**𝑖 ∗ −1. Update the batch by back-propagating with Eq. (1) and using the statisticssaved in the CN as a regularization term (Eq. (4)); (2) Model update on new tasks (Section 3.4): Leverage information from the previous model using the distillation loss. Toprevent catastrophic forgetting of past tasks, we mitigate domain shift between synthesized and original data with a novel intra-domain conservative (IdC) loss (Section 3.4.1), asemi-supervised domain adaptation technique and encourage robust decision boundaries and overcome data imbalance with the margin loss (Section 3.4.2) and cosine-normalizedcross-entropy (CN-CE) loss (Section 3.4.3). Best viewed in coloured print.

图2. CCSI的类别增量学习流程。CCSI的两个主要步骤包括:(1) 持续类特定数据合成(第3.3节):初始化一批图像,每个类别的图像以其平均值开始,通过使用在先前任务上训练的冻结模型 𝑓**𝑖 ∗ −1 来合成图像。通过反向传播更新图像批次(使用公式(1))并使用CN中保存的统计数据作为正则化项(公式(4));

(2) 新任务的模型更新(第3.4节):使用蒸馏损失从先前模型中获取信息。为了防止灾难性遗忘,我们通过一种新颖的域内保守(IdC)损失(第3.4.1节),一种半监督域适应技术,来缓解合成数据与原始数据之间的域偏移,并通过边缘损失(第3.4.2节)和余弦归一化交叉熵(CN-CE)损失(第3.4.3节)来鼓励稳健的决策边界并克服数据不平衡问题。彩色打印效果最佳。

图片

Fig. 3. The effect of each loss on the model’s latent space. 𝑓𝑖  −1 is the model trainedon previous data, and 𝑓𝑖 is the updated model with new classes. (a) The intra-domaincontrastive loss reduces the domain shift by minimizing the distance between thesynthesized and test data of the same class and maximizing the distance betweensynthesized data from different classes. (b) The margin loss enforces the separationbetween the latent representation of the new class and the previously trained classes.(c) The cosine-normalized cross-entropy loss balances the importance of the newclass against the previously trained classes in the latent space to achieve clear classboundaries. Best viewed in coloured print.

图3. 各损失对模型潜在空间的影响。𝑓𝑖  −1 是在先前数据上训练的模型,𝑓𝑖 是包含新类别的更新模型。

(a) 域内对比损失通过最小化同一类别的合成数据和测试数据之间的距离,以及最大化不同类别的合成数据之间的距离,来减少域偏移。

(b) 边缘损失强制新类别的潜在表示与先前训练的类别之间的分离。

(c) 余弦归一化交叉熵损失平衡新类别与先前训练的类别在潜在空间中的重要性,以实现清晰的类别边界。彩色打印效果最佳。

图片

Fig. 4. Datasets’ samples. Each dataset’s first row shows samples from two different classes, the second row is the mean initialization of the respective class, and the third row isthe synthesized images. Best view in coloured.

图4. 数据集样本。每个数据集的第一行显示来自两个不同类别的样本,第二行是相应类别的平均初始化图像,第三行是合成图像。彩色查看效果最佳。

图片

Fig. 5. Testing accuracies on all tasks compared with state-of-the-art class-incremental learning. Dashed lines represent non-data-free methods, while straight lines representdata-free methods. We outperform all data-free methods on all datasets except TissueMNIST. While we surpass some non-data-free methods, we achieve comparable results withothers.

图5. 在所有任务上的测试准确率与最先进的类别增量学习方法的比较。虚线表示非无数据方法,而实线表示无数据方法。除了TissueMNIST数据集外,我们在所有数据集上均超越了所有无数据方法。虽然我们超越了一些非无数据方法,但我们与其他方法取得了可比的结果。

图片

Fig. 6. Visual representations of both original and synthesized images for the BloodMNIST dataset in the latent space, utilizing various methods for the synthesis step usingUMAP (McInnes et al., 2018). We aim to show that the synthetic data generated via CCSI has the closest distribution with the original ones compared with alternatives. Wepresent the latent space representation of original samples from previous classes: the initial two classes (1 and 2), and current classes: the two most recently added classes (7 and8in the final task, using circle markers (∙). In addition, we showcase synthesized samples for the initial two classes, represented by star markers (⋆), which serve as exemplarsof original samples that are no longer available

图6. 使用UMAP(McInnes等人,2018)在潜在空间中可视化BloodMNIST数据集的原始图像和合成图像,采用各种方法进行合成步骤。我们旨在展示通过CCSI生成的合成数据与原始数据相比分布最接近。我们展示了来自先前类别的原始样本的潜在空间表示:初始两个类别(1和2),以及当前类别:最终任务中最近添加的两个类别(7和8),使用圆形标记(∙)。此外,我们展示了初始两个类别的合成样本,使用星形标记(⋆)表示,这些样本作为不再可用的原始样本的典范。

Table

图片

Table 1Class division for MedMNIST and Heart Echo datasets. In each task, we introducedifferent classes than previously learned tasks. Our goal is to have a model performingwell in all of the introduced classes.

表1MedMNIST和心脏回声数据集的类别划分。在每个任务中,我们引入了与先前学习任务不同的类别。我们的目标是让模型在所有引入的类别中表现良好。

图片

Table 2Conceptual comparison of CCSI and state-of-the-art class incremental learning methods. CCSI is a data-free approach thatsynthesizes data without pre-training using additional data. Moreover, we leverage the synthesized data to retain the memoryof previous classes, address inter-task confusion, and overcome task-recency bias.

表2CCSI与最先进的类别增量学习方法的概念比较。CCSI是一种无数据的方法,通过合成数据而无需使用额外数据进行预训练。此外,我们利用合成数据保留对先前类别的记忆,解决任务间混淆问题,并克服任务最近性偏差。

图片

图片

Table 3Testing accuracies of final task over MedMNIST and Heart Echo datasets compared with data-free baselines of class-incremental learning. CCSI shows consistently higher accuracy,up to 51% increase compared to the state-of-the-art data-free methods.

表3MedMNIST和Heart Echo数据集上最终任务的测试准确率,与无数据类别增量学习基线方法的比较。CCSI显示出始终更高的准确率,相较于最先进的无数据方法提高了高达51%。

图片

Table 4Testing accuracies of final task over MedMNIST and Heart Echo datasets compared with non-data-free baselines of class-incremental learning.

表4MedMNIST和Heart Echo数据集上最终任务的测试准确率,与非无数据类别增量学习基线方法的比较。

图片

Table 5Testing accuracy of ablation studies done on different configurations of the proposed framework. These experiments are divided into two maincategories: (1) Modifications over the synthesis Step; (2) Modifications over the training Step.

表5对所提出框架不同配置进行消融研究的测试准确率。这些实验分为两大类:(1) 对合成步骤的修改;(2) 对训练步骤的修改。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1925562.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【tomcat】Tomcat如何扩展Java线程池原理

池化技术 在后端中,对于经常使用池化就是来提升系统性能,比如数据库连接池、线程池连接池等,本质都是利用空间换时间的来提升性能,用来避免资源的频繁创建和销毁,以此提高资源的复用率,所以合理设置系统所…

springboot个人健康信息管理小程序-计算机毕业设计源码

摘要 在当今这个数字化、信息化的时代,个人健康管理已成为人们生活中不可或缺的一部分。随着生活节奏的加快,越来越多的人开始关注自己的身体状况,希望能够及时了解并调整自己的生活习惯,以达到最佳的健康状态。为此,我…

Codeforces Round 957 (Div. 3) D,F

D. Test of Love 很容易想到dp,对于dp的转移方程也比较好写,当前点只能从当前点前面m个点转移过来,那么思考转移的条件,对于前面的点 j j j ,如果 j j j 是水并且 i i i 和 j j j 不相邻,那么不能进行转…

初始化列表和explicit关键字和static成员

初始化列表 1.初始化和赋值的概念: 首先我们先来了解一下成员变量初始化和赋值的概念,初始化是是对成员变量进行一次赋值,注意是只能一次赋值,而赋值是可以多次进行赋值的。 2.初始化列表的引出: 我们知道了初始化…

ftp pool 功能分析及 golang 实现

本文探究一种轻量级的 pool 实现 ftp 连接。 一、背景 简要介绍:业务中一般使用较多的是各种开源组件,设计有点重,因此本文探究一种轻量级的 pool 池的思想实现。 期望:设置连接池最大连接数为 N 时,批量执行 M 个 F…

Transformer模型:Decoder的self-attention mask实现

前言 这是对Transformer模型Word Embedding、Postion Embedding、Encoder self-attention mask、intra-attention mask内容的续篇。 视频链接:20、Transformer模型Decoder原理精讲及其PyTorch逐行实现_哔哩哔哩_bilibili 文章链接:Transformer模型&…

【JVM实战篇】内存调优:内存泄露危害+内存监控工具介绍+内存泄露原因介绍

文章目录 内存调优内存溢出和内存泄漏内存泄露带来什么问题内存泄露案例演示内存泄漏的常见场景场景一场景二 解决内存溢出的方法常用内存监控工具Top命令优缺点 VisualVM软件、插件优缺点监控本地Java进程监控服务器的Java进程(生产环境不推荐使用) Art…

JavaWeb(三:JDBC 与 MVC)

JavaWeb(一:基础知识和环境搭建)https://blog.csdn.net/xpy2428507302/article/details/140365130?spm1001.2014.3001.5501JavaWeb(二:Servlet与Jsp,监听器与过滤器)https://blog.csdn.net/xpy…

Python蜂窝通信Wi-Fi和GPU变分推理及暴力哈希加密协议图消息算法

🎯要点 🎯图模型和消息传递推理算法 | 🎯消息传递推理和循环消息传递推理算法 | 🎯空间人工智能算法多维姿势估计 | 🎯超图结构解码算法量子计算 | 🎯GPU处理变分推理消息传递贝叶斯网络算法 | &#x1f3…

5G-A通感融合赋能低空经济-RedCap芯片在无人机中的应用

1. 引言 随着低空经济的迅速崛起,无人机在物流、巡检、农业等多个领域的应用日益广泛。低空飞行器的高效、安全通信成为制约低空经济发展的关键技术瓶颈。5G-A通感一体化技术通过整合通信与感知功能,为低空网络提供了强大的技术支持。本文探讨了5G-A通感…

【中国近代史】林则徐虎门销烟(1839年)

中国古代朝代历史经过两周时间(7.03-7.13)的分享已经正式结束,首先感谢大家通过那个专栏点赞收藏关注我,这是我继续创作的动力。 接下来新的专栏就是中国近代史。让我们再次走入近代史的潮流中,去学习去感受先辈们的拼…

计组_多处理器的基本概念

2024.06.26:计算机组成原理多处理器的基本概念学习笔记 第21节 多处理器的基本概念 1. 计算机体系结构1.1 SISD单指令流单数据流(前面几章一直在学习的内容)1.2 SIMD单指令流多数据流1.2.1 改进:向量处理器 1.3 MISD多指令流单数据…

应用帕累托原则学习新的编程语言

在本文中,我将讨论如何应用帕累托原则快速学习一门新的编程语言,并在加深对编程语言的理解的同时开始解决实际问题。 什么是帕累托原则? 帕累托原则,又称 80/20 法则,指出对于许多结果而言,大约 80% 的后…

数据湖仓一体(一) 编译hudi

目录 一、大数据组件版本信息 二、数据湖仓架构 三、数据湖仓组件部署规划 四、编译hudi 一、大数据组件版本信息 hudi-0.14.1zookeeper-3.5.7seatunnel-2.3.4kafka_2.12-3.5.2hadoop-3.3.5mysql-5.7.28apache-hive-3.1.3spark-3.3.1flink-1.17.2apache-dolphinscheduler-3.1.9…

我的智能辅助大师-办公小浣熊

一、基本介绍 随着2022年ChatGPT为代表的AI工具对互联网领域进行第一次冲击后,作为一名对编程领域涉足不算特别深的一名程序员,对AI大模型的接触也真的不能算少了,这是时代的必然趋势。在此之前也曾接触过很多的AI工具,他们都能在…

跨境电商系统如何进行搭建

目前越来越多的商家,他们都在进行跨境电商建站,便于自己在网络上进行营销推广,跨境电商系统的搭建是至关重要的,商家应该先了解跨境电商的模式有哪些,这样才能对跨境电商系统有更好的搭建结果。 跨境电商模式 目前来…

1589. 【中山市第十二届义务教育段学生信息学邀请赛】象战(bishop)(Standard IO)

题目描述 国际象棋的棋盘可以表示为一个 8 行 8 列的格子图,其中每个格子都可以放一枚棋子。我们将第 1 行第 2 列的格子用 (1,2) 来表示,以此类推。 为了帮助妹妹认识国际象棋中的“象”这种棋子,Jimmy 可谓是煞费苦心——他首先教会妹妹&…

【Java】数据类型及类型转换

数据类型 Java语言的数据类型分为两大类: 基础数据类型引用数据类型 基础数据类型 基础数据类型包括以下8种: 类型名称关键字占用内存取值范围区间描述字节型byte1 字节-128~127-27~27-1短整型short2 字节-32768~32767-215~215-1整型int4 字节-2147…

算法学习笔记(8.3)-(0-1背包问题)

目录 最常见的0-1背包问题: 第一步:思考每轮的决策,定义状态,从而得到dp表 第二步:找出最优子结构,进而推导出状态转移方程 第三步:确定边界条件和状态转移顺序 方法一:暴力搜素…

经典元启发式算法的适用范围及基本思想

元启发式算法是针对优化问题设计的一类高级算法,它们具有广泛的适用性,可以解决不同类型的问题。不同的元启发式算法由于其特定的搜索机制和策略,适用的优化问题类型也有所不同。以下是一些常见元启发式算法及其适用范围: 1. 遗传…