永远学习:为什么人工智能难以适应新挑战

news2025/1/11 19:45:33

理解深度学习的局限性并追求真正的持续适应

欢迎来到雲闪世界。

“智者适应环境,正如水适应水瓶。”——中国谚语

“适应或灭亡,现在和以往一样,是大自然的必然法则。”——赫伯特·乔治·威尔斯

近年来,人工智能取得了长足的进步。所有这些系统都以某种形式使用了人工神经元。这些算法的灵感来自它们的生物对应物。例如,神经元会聚合来自先前神经元的信息,如果信号超过某个阈值,它会将信息传递给其他神经元。这个想法由权重矩阵和激活函数表示。其他示例可以在卷积网络(受视觉皮层启发)或遗传算法中找到。在训练过程中,各种神经元之间的连接(由权重表示)会加强或减弱,类似于神经元突触的强度。这个过程是随机梯度下降(SGD)和反向传播算法的基础,几十年来几乎没有发生任何变化。

描述智力和生物成分之间的这些相似性有助于更好地理解,但也很危险。首先,生物系统比人们想象的要复杂得多,而且人们使用了强迫性的简化。其次,其中一些比较是不准确的。持续学习就是这种情况

在本文中,我们将回答以下问题:

  • 什么是持续学习?它为什么重要?

  • 所有的深度学习架构都会丧失可塑性吗?

  • 什么原因导致可塑性丧失?

  • 如何解决?

TL;DR 和参考资料位于文章末尾。

什么是持续学习?

大脑非常灵活,能够适应新任务和新类型的信息。相比之下,神经网络在适应数据流的变化方面存在问题。

例如,大型语言模型 (LLM)是通用模型,在预训练期间使用大量数据进行训练。微调是一种让模型学习新知识或技能的系统。但是,微调存在两个问题:

  • 在微调过程中,大多数权重都保持冻结。

  • 它可能导致忘记技能和知识,增加出现幻觉的风险新旧数据之间的这种动荡关系目前尚未完全理解

  • 这使得持续学习在实践中无法实现。我们冒着损害模型功能的风险。很难平衡新数据对模型预先获得的知识的影响。

结果是这些微调技术远非完美。因此,人们通常更愿意从头开始训练新模型或使用其他策略,例如检索增强生成 (RAG)。

然而,从头开始训练新模型的成本很高,但有时这被认为是唯一的选择。这远非最佳选择,许多现实世界的应用需要模型适应变化(预测金融市场、市场、物流需求、控制系统等)。

          为什么神经网络无法获取新信息?

主要有两个问题:

  • 灾难性遗忘。模型会忘记之前学到的东西

我们将重点关注可塑性的丧失

当我们尝试训练一个预先训练好的模型时,它无法学习新信息或新技能,这就失去了可塑性。更技术性地说:

理想情况下,这个新的训练过程是从昨天的模型的参数初始化的,也就是说,它是从这些参数“热启动”的,而不是重新初始化。然而,热启动似乎会损害深度神经网络的泛化。

使用热启动(持续学习期间)[10] 训练的模型在测试集中表现较差。因此,持续学习似乎会损害模型的泛化能力,从而损害其适应新数据的能力。

一些研究表明,这是因为学习有一个关键阶段,这个阶段在训练的早期阶段(记忆阶段)和后期阶段都会出现信息减少(重组)。改变这个初始阶段会损害训练和泛化本身。

其他研究似乎证实了学习有两个阶段(记忆和细化)[3]。然而,这并不能解释为什么在呈现新数据时会失去可塑性。其他研究表明梯度下降、损失表面和架构选择(规范化将促进更好地维持可塑性)[4] 发挥了作用。然而,这个问题仍然悬而未决,我们将在本文后面详细讨论。

可塑性的丧失是所有深度学习模型中普遍存在的现象

灾难性遗忘的研究比可塑性丧失要多得多。不幸的是,很少有研究关注它。因此,我们不知道可塑性丧失是一个普遍问题还是某些参数选择的特殊情况。

为了证明可塑性损失影响所有深度学习模型,可塑性损失应该在所使用的不同架构、参数和算法之间保持一致。然而,当今的模型有数十亿个参数,使得系统操作变得复杂。在这项研究 [5] 中,他们试图通过在两个主要数据集上进行测试来弥补这一缺陷:ImageNet 和 CIFAR。

ImageNet 包含 1000 个图像类别(总共 100 万张图像),是最著名的图像分类基准。作者进行了 0.5 M 个二元分类任务(每次处理两个类别)来测试持续学习中可塑性的丧失。换句话说,作者训练一个模型来区分“狗”和“猫”,然后训练它进行一项新任务(区分“叶子”和“花”),依此类推。在第一个任务结束后测量准确度,然后在每个后续任务结束后测量准确度。任务的难度相同,但如果模型的性能下降,则意味着它已经丧失了可塑性。

作者在这些设置中测试了不同类型的深度学习网络和不同的参数。使用标准反向传播,模型在前几个任务中表现良好,但随后它们很快失去可塑性,直到它们的表现与线性模型相似。因此,一个针对一项任务进行良好调整的模型在面对新任务时开始迅速失去性能,直到它低于基线。

研究证实,正则化有助于维持神经可塑性。更一般地说,正则化方法旨在保持网络权重较小。L2正则化似乎有助于维持可塑性,但原因尚不清楚。

      在后来的实验中,作者使用了CIFAR(最流行的图像数据集之一,包含 100 个类别)。他们采用包含残差连接的 18 层ResNet模型 [11](实际上是计算机视觉领域使用最广泛的模型之一),并开始在 5 个类别上进行训练。之后,他们开始添加更多类别,直到达到 100 个类别。

每次添加后,都会在所有可用类别上测试模型的性能。这可以视为在数据集不断扩大的同时训练模型的情况(就像随着时间的推移而扩大的社交网络)。由于作者关注的是可塑性而不是遗忘,因此在添加新类别时不会删除旧类别。与此同时,作者训练从头开始在所有可用类别上训练的模型(如果模型首先在五个类别上进行训练,然后在第二次迭代中在另外 5 个类别上进行训练,则从头开始的模型直接在 10 个类别上进行训练)

最初,增量训练似乎比重新训练更好,但随着类别的增加,模型失去了可塑性。添加图像类别后,性能开始越来越差。经过几个类别之后,基线(从头开始训练的模型)的改进就消失了,而通过添加类别,性能会显著下降。同样,在使用规范化技术的情况下,性能下降较少(Shrink and Perturb [12] 是一种也使用 L2 规范化的算法)。

持续学习在强化学习中有着重要的用途代理必须能够探索和学习环境,而环境是可以改变的。例如,在视频游戏中,前几关可能与后几关有很大不同,需要代理适应新的挑战。

在这项研究 中,作者分析了蚂蚁类机器人探索周围环境并获得奖励的行为。他们每隔几百万步就改变摩擦系数,这样模型就必须重新学习如何行走(模拟机器人的新任务)。

再次,该模型显示性能下降和缺乏可塑性。有趣的是,即使在这些设置中,正则化技术也能提高可塑性。

我们现在知道,可塑性的丧失是普遍存在的,但为什么会发生呢?

塑性丧失的原因

正则化技术有助于保持可塑性,这一事实表明可塑性与模型权重的某些属性有关。毕竟,正则化技术对权重施加了限制。

从某种意义上说,模型中真正随时间变化的是它的权重。这些权重是随机初始化的,但随后在模型学习任务时会优化权重。稍后,如果我们为另一项任务进行训练,这些权重应该针对下一个任务进行优化(依此类推)。但这不会发生,因为模型会失去可塑性。因此,最初这些权重可以针对一项任务进行优化,这意味着在第一个时期,它们必须具有某些允许它们学习的特定属性(一个或多个属性在训练过程中会丢失)。

这些特性的丧失应该可以解释可塑性的丧失。

我们可以研究在训练过程中权重的哪些属性会发生变化,尤其是当模型开始失去可塑性时。这应该有助于我们了解原因。

在训练过程中,在失去可塑性的同时,恒定单位的比例也在增加。当一个神经元变为恒定时,由它产生的梯度变为零或接近零。同样,这个权重不再变化,我们可以将其定义为不再具有自适应性或可塑性。在ReLU 激活的情况下,当神经元对每个输入产生零时,它们被定义为死神经元 [6–7]。我们可以注意到,可塑性的丧失伴随着死神经元的增加

一旦一个单元死亡,它就永远死亡了。这意味着死亡神经元的增加对应于网络学习能力的下降(活跃神经元越少,神经网络的容量就越小)。

另一个有趣的现象是,权重的平均幅度会增加,而性能则会下降。一般来说,权重幅度的增长与梯度下降中的学习速度变慢和收敛速度降低有关。

与可塑性丧失同时出现的第三个有趣现象是表示的有效秩下降。有效秩考虑每个维度如何影响矩阵引起的变换。简而言之,有效秩与信息量有关。包含重要信息的维度越少,矩阵中填充的冗余信息就越多。对于神经网络的权重矩阵,隐藏层的有效秩表示产生该层输出所需的神经元数量。它越低,产生该层输出所需的神经元就越少(因此大多数神经元不会产生有用的信息)。随着训练的增加,网络的有效秩会降低,因此产生相关信息的神经元就会减少,网络的表示能力也会降低。这无助于学习新信息,因为我们可以依赖少数有用的神经元。

这些因素解释了为什么我们以前经常看到正则化技术带来的改进。L2 正则化确实降低了权重的大小,但不会影响死单元和有效排名。收缩和扰动是 L2 正则化和随机高斯噪声注入的组合,因此它也可以减少死单元的数量。然而,这两种技术都无法解决第三个问题。

我们如何在模型中提高神经元的可塑性?

提高网络可塑性

我们需要一种方法,让我们拥有较小的权重、较少的死神经元(减少休眠),并保持网络的可变性。通过了解需求是什么,我们可以修改神经网络学习保持可塑性的方式。

在反向传播的初始步骤中,权重被随机初始化,这允许高度可变性。这种可变性随后在训练过程中消失(连同可塑性)。然后我们可以通过重新初始化一些权重来增加可变性。但是,我们必须小心,以免破坏网络所学到的东西。因此,我们应该只重新初始化少数几个网络未使用的权重。一般来说,神经元的激活会告诉我们它有多有价值。如果一个神经元对其他神经元的贡献很小,它就不会传递重要信息,因此我们可以重新初始化它们

这种方法称为连续反向传播,可以保持更多的可塑性。

因此,持续反向传播似乎可以在很长一段时间内保持网络可塑性。遗憾的是作者没有在 LLM 上进行测试。

临别感想

总体而言,大多数持续学习研究都集中于保持网络稳定性(保留在先前任务中学到的信息,从而避免灾难性遗忘)。然而,可塑性的缺乏会影响网络获取新信息和新技能的能力,在持续学习中同样重要。最近的研究阐明了这种可塑性丧失的原因。有趣的是,可塑性的丧失是反向传播算法本身固有的。事实上,可塑性的缺乏在各种架构和任务中普遍存在,这一事实就证明了这一点 [5]。

一方面,正则化技术促进了可塑性,而其他常见参数选择显然会使问题恶化(dropout、ADAM 优化器)。直到最近我们才知道原因;今天我们知道这是权重爆炸、神经元休眠和效率等级之间的微妙平衡 [5、8、9]。因此,我们可以修改反向传播以考虑这些因素。

持续反向传播 [5] 是一种保持可塑性的有趣方法。它是一种简单的方法,并且计算量不大,它重新初始化通常贡献较小的神经元(这些神经元通常是在试图减小模型尺寸的技术中被修剪的神经元)。

持续反向传播使用效用度量来查找和替换低效用单元,这意味着它基于启发式方法,因此不是最佳方法。此外,大多数这些研究都是在玩具模型上进行的(即使它们是广泛的基准),而不是在 LLM 等模型上进行的。看看持续反向传播等方法如何作用于 LLM,以及它们是否允许这些模型学习新知识或新技能,将会很有趣。

无论如何,可塑性的丧失是自然神经元和人工神经元之间的一个显著区别。持续学习对于许多应用都很重要,例如机器人遇到新地形,或将 LLM 应用于专业领域和新任务。今天,我们更好地了解了问题的根源以及如何提高模型的可塑性,但仍然存在悬而未决的问题(需要进一步研究)。

感谢关注雲闪世界。(Aws解决方案架构师vs开发人员&GCP解决方案架构师vs开发人员)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2112502.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Android的logcat日志详解

Android log系统 logcat介绍 logcat是android中的一个命令行工具,可以用于得到程序的log信息。下面介绍 adb logcat中的详细参数命令以及如何才能高效的打印日志,或把日志保存到我们指定的位置。 可以输入 adb logcat --help,查看一下一些简…

Xinstall助力App全渠道统计,参数传递下载提升用户体验!

在移动互联网时代,App已成为我们日常生活中不可或缺的一部分。然而,对于App开发者来说,如何有效地推广和运营自己的应用,却是一个不小的挑战。尤其是在面对众多渠道、复杂的数据统计和用户需求多样化的情况下,如何精准…

【ffmpeg】转换音频格式

在音频文件所在目录启动终端输入以下 ffmpeg -y -i original.aac target.mp3-y 如果输出文件已经存在,则覆盖它而不询问。 执行完毕后在当前文件夹目录下生成目标文件

项目9-网页聊天室9(测试报告)

1.项目背景 本项目采用 SSM框架结合 Websocket 技术构建。用户通过简单的注册和登录即可进入聊天室,与其他在线用户实时交 流。系统支持文字消息的快速发送和接收、消息实时推送,确保交流的及时性和流畅性。SSM 框架为项目提供了稳定的架构和高效的 数据…

学习笔记--MybatisPlus

官网:MyBatis-Plus 🚀 为简化开发而生 快速入门 入门案例 引入MybatisPlus的起步依赖 定义Mapper 问题: MybatisPlus中Invalid bound statement (not found): com.itheima.mp.mapper.UserMapper.insert 一定要指定实体类!&am…

ASTER 地表动能温度 (AST_08) 是利用 8 至 12 µm 光谱范围内的五个热红外波段

ASTER L2 Surface Temperature V00 简介 ASTER 地表动能温度 (AST_08) 是利用 8 至 12 m 光谱范围内的五个热红外波段(白天或夜间获取)生成的 (https://lpdaac.usgs.gov/documents/996/ASTER_Earthdata_Search_Order_Instructions.pdf)。 它只包含陆地…

Slideflow:数字病理学中的深度学习与全切片可视化工具库|文献精析·24-09-02

小罗碎碎念 群里今天有人提问Histolab相关的问题,作者在交流的过程中谈到了Slideflow,恰好我没有看过这篇文章,所以便有了这期推文。 作者角色作者姓名单位名称(英文)单位名称(中文)第一作者Jam…

性能工具之 JProfiler 简单登录案例分析实战

文章目录 一、前言二、准备工作三、使用JProfile定位问题四、登陆案例分析四、总结 一、前言 JProfiler是一款 Java的性能监控工具。可以查看当前应用的对象、对象引用、内存、CPU使用情况、线程、线程运行情况(阻塞、等待等),同时可以查找应…

66、脑机接口产业联盟天津第一次全体大会参会分享

我注意到脑机联盟网上搜不到第一次和第二次大会的有关资料,这是非常遗憾的,所以我根据自己参会的记录,写成文章,与各位同学分享,此课件我也做成了公开课讲解,连接在我的Github。写这些,也算是为…

uAI - AI Assistant 人工智能辅助助手插件

uAI助手支持GPT 3.5 Turbo、GPT 3.5 Turbo16K、GPT 4-8k和GPT 4 Turbo-128k 什么是uAI助理? uAI Assistant是Unity游戏引擎的强大扩展,它使用GPT AI帮助游戏开发人员轻松创建专业代码和引人入胜的游戏内容。 你需要一个OpenAI密钥才能使用uAI助手!阅读我们的文档以获取更多说…

PDF 格式的文件编辑难度非常大,相比 .docx格式,它存在的意义是什么?

知乎上有个热门问题,PDF 格式的文件编辑难度非常大,相比 .docx格式,它存在的意义是什么? 回答这个问题得承认一个大前提,PDF是用来查看的,而不是编辑的。 否则就相当于提问,詹姆斯的足球踢得并…

Qt基础类03-直线类QLine

Qt基础类03-直线类QLine 摘要基本信息成员函数程序全貌QLine::QLine()QLine::QLine(const QPoint &p1, const QPoint &p2)QLine::QLine(int x1, int y1, int x2, int y2)QPoint QLine::p1() constQPoint QLine::p2() constint QLine::x1() constint QLine::x2() consti…

ComfyUI+Krea免费利用AI制作网站萌宠IP,五步搞定制作AI萌宠

大家好,这是我们网站的萌宠——Meo喵,是一只猫咪AI工具专家🐾,嘻嘻🎉🐱。是AIGC年轻的艺术家星之,利用AI产品ComfyUI、Krea,搭配PS制作而成,下面先介绍一下它的形象&…

LLM大模型教程:langchain 教程

软件安装 pip install pymupdf pip install langchain pip install langchain-cli conda install -c pytorch -c nvidia faiss-gpu1.7.4 mkl2021 blas1.0mkl由于langchain不支持qwen模型,我们需要自定义模型 from typing import Anyfrom langchain_core.language_…

‌Python开发者必学:如何优雅地绕过round函数的四舍五入陷阱

引言 在最近交付测试的一个功能中,测试同学反馈一个数据统计四舍五入的问题,问题有点魔性:同样的条件,有的值可以四舍五入成功,有的值直接被舍弃。 例如2.5四舍五入整数直接变成了2;3.5却变成了4。因为使用…

IDEA 模板配置

IDEA 模板配置 一、tkMapper通用mapper配置 1 新建配置文件generatorConfig.xml&#xff0c;路径src/main/resources/generator/generatorConfig.xml <?xml version"1.0" encoding"UTF-8"?> <!DOCTYPE generatorConfigurationPUBLIC "-…

基于单片机的多功能电子钟设计

文章目录 前言资料获取设计介绍功能介绍程序代码部分参考 设计清单具体实现截图参考文献设计获取 前言 &#x1f497;博主介绍&#xff1a;✌全网粉丝10W,CSDN特邀作者、博客专家、CSDN新星计划导师&#xff0c;一名热衷于单片机技术探索与分享的博主、专注于 精通51/STM32/MSP…

C学习(数据结构)-->排序

目录 一、直接插入排序 二、希尔排序 三、直接选择排序 四、快速排序 1、取基准值 1&#xff09;hoare找基准值​编辑 2&#xff09; 挖坑法找基准值​编辑 3&#xff09;快慢指针找基准值​编辑 2、递归快速排序 3、非递归快速排序 ​编辑 五、归并排序 ​编辑 六、计…

今日早报 每日精选15条新闻简报 每天一分钟 知晓天下事 9月7日,星期六

每天一分钟&#xff0c;知晓天下事&#xff01; 2024年9月7日 星期六 农历八月初五 白露 1、 司法部&#xff1a;遏制地方乱发文、出台“奇葩”政策文件等情况。 2、 证监会&#xff1a;拉长离职人员入股禁止期至10年&#xff0c;扩大对离职人员从严监管范围。 3、 全国医护比…

三文带你轻松上手鸿蒙的AI语音03-文本合成声音

三文带你轻松上手鸿蒙的AI语音03-文本合成声音 前言 接上文 三文带你轻松上手鸿蒙的AI语音02-声音文件转文本 HarmonyOS NEXT 提供的AI 文本合并语音功能&#xff0c;可以将一段不超过10000字符的文本合成为语音并进行播报。 场景举例 手机在无网状态下&#xff0c;系统应用…