论文解读 | NeurIPS'24 IRCAN:通过识别和重新加权上下文感知神经元来减轻大语言模型生成中的知识冲突...

news2025/1/8 17:28:23

点击蓝字

82401254ef12330ec2cd14d203cb3d74.jpeg

关注我们

AI TIME欢迎每一位AI爱好者的加入!

1a962832f0394ed2dc475e0ecde2616e.png

点击 阅读原文 观看作者讲解回放!

作者简介

史丹,天津大学博士生

内容简介

大语言模型(LLM)经过海量数据训练后编码了丰富的世界知识。最近的研究表明,当LLM面临其编码的参数知识和上下文中提供的知识之间存在矛盾(被称为知识冲突)时,可能会过度依赖其内在的参数知识,而不能充分重视上下文中引入的新知识。为了减轻该问题,本文提出了一个新颖的框架IRCAN,通过识别和重新加权上下文感知神经元,引导LLM根据上下文中提供的新知识生成对上下文更敏感的输出。具体而言,IRCAN首先利用基于积分梯度的上下文感知归因评分,识别出显著贡献于处理上下文的神经元。随后,通过重新加权来增强所识别的上下文感知神经元。在来自多个系列的模型和多种任务上进行的广泛实验表明,IRCAN不仅显著提升了LLM在知识冲突问题上的性能,还可以与现有方法无缝集成,取得了最先进的结果。

论文地址:https://arxiv.org/abs/2312.12853

代码链接:https://github.com/danshi777/IRCAN

Motivation

众所周知,大语言模型经过大量数据的训练,蕴含了丰富的知识。然而,由于信息/知识的快速发展以及训练数据中存在的噪音,LLM可能拥有不正确或过时的知识。在现实应用中,通常使用检索增强生成(RAG)等方法,将最新的知识或来自外部数据库的知识集成到输入的提示上下文中来缓解这个问题。这导致LLM在生成过程中依赖两种知识来源:一种是参数知识,即模型在预训练阶段获得并编码在其参数中的知识;另一种是上下文知识,即我们提供给模型的输入上下文中的信息。当这两种知识存在不一致或矛盾时,就会出现所谓的知识冲突问题。

4be5ab80654dd9a872a7a8927545b476.png

以往的研究表明,当LLM面临参数知识与上下文知识之间的冲突时,它们可能会过度坚持现有的参数知识,而不能充分关注在上下文中引入的新知识。

例如,即便将“截至2023年,印度成为世界上人口最多的国家”这一信息作为上下文输入给Llama-2-7B,当被问及“世界上人口最多的国家是哪个”时,它仍然回答为“中国”。

fe6fc3f8453bef46d6ef5b92990b8416.png

作者猜想,是否类似于之前的知识神经元,在LLM中也存在专注于处理上下文的神经元呢?基于此假设,作者提出一个识别和重新加权上下文感知神经元的框架IRCAN,首先通过计算每个神经元的归因分数来衡量来识别负责处理上下文的神经元,称之为知识感知神经元,然后通过增加这些知识感知神经元的权重,使模型在生成过程中更加关注上下文,从而生成更忠诚于上下文的响应。

8e610c4c71c72512c4904a78279391a7.png

Methodology

具体而言,本方法首先通过一种基于梯度积分的上下文感知归因方法,计算每个神经元在感知上下文以预测答案方面的贡献分数。这些分数可用于评估哪些神经元在处理上下文中发挥着关键作用。与许多先前的研究相同,本文也关注第2个FFN层中的神经元。

作者将每个神经元要计算的归因分数记作66c01490876ddd766a0d80675f5ad679.png,其中表示在模型的第层的位于第i个位置的神经元。首先,仅将问题作为输入,记录下此时模型中每个神经元的激活值,记作a83bd7a77c75bf8dd96dacd9b55e9d38.png。接着,将上下文和问题一起输入给语言模型并记录此时新的神经元激活值,记作1f53d3943d074d754cebfd0133e6b3ea.png。然后,当输入为上下文和问题时,逐渐将神经元的激活值从d57ba882107d2aa7abcebf4cc1540e68.png改变为d7510c980f210b3cc8d9f1e1c347a074.png,观察输出正确答案的概率梯度的变化,计算归因分数为式(1)。直观上,通过对 α 从 0 变化到 1 时的梯度进行积分,7d24aa5e20e55c2cf95621435197dc94.png累积了由上下文不存在到存在的激活值变化引起的输出概率变化。如果神经元对上下文有很强的感知和处理能力,那么梯度就会很大,从而产生很大的积分值。因此,归因分数可以衡量神经元在处理上下文方面的贡献程度。

在实际的实验中,作者采用黎曼逼近法来近似计算归因分数,如式(2)所示。具体做法是将ece761e192eeea568176b325f075feff.png减这个值分成m份,每次改变其中的m分之一,然后将这些变化累加起来。在实验中,m默认为20。

3009b5cbb5eab48071dbcced0586ab42.png

第二步,根据计算出的神经元归因分数,首先保留分数高于阈值t的神经元。然后,对于每个数据实例,选择具有最高归因分数的前z个神经元作为候选集。在实验中,t和z分别默认设置为 10% 和 20。最终,计算所有候选集中神经元的共现次数,并选择共现次数最多的前h个神经元作为上下文感知神经元。这些识别出的上下文感知神经元在所有数据实例之间共享。

15542722c243cf7d57dce31abb34fac5.png

最后,本文采用了一种简单而有效的办法来放大识别到的知识感知神经元的作用,即直接将这些神经元的权重扩大到原始权重的β倍。在实验中,选取的知识神经元的数量h以及增强的倍数β都是超参数。

bdcc05c7318c437512f891b6b4bebd47.png

Experiments

作者在两种不同类型的知识冲突任务上进行了实验:一是补全任务,涉及“MemoTrap”数据集,该任务要求模型在英文谚语的上下文中使用不同于其传统结尾词的其他词语来补全谚语;另一种则是多项选择任务,在 COSE_KRE 和 ECARE_KRE 数据集上进行了实验,在该任务中,预先指定一个错误答案为正确答案,然后让ChatGPT生成一个支持这个错误答案的解释,并将这个解释作为上下文,期望模型在被提问后,能根据这个解释回答指定的答案,而非它原本的答案。

作者采用accuracy作为主要指标来评估模型的性能。此外,还设计了一个作为参考的指标——称为“固执率”。该指标旨在评估模型是否倾向于固守其内在参数知识。较低的固执率意味着模型利用内部参数知识回答问题的比例越低,从而在一定程度上反映了模型对上下文知识的专注。

fc160ada17c9ae2b149d303e310e3248.png

首先,在补全任务中,对比的baselines包括不做任何操作的原始模型,基于Probe的方法,以及一个强大的baseline CAD,它直接调整了输出概率,放大了使用上下文和不使用上下文时的概率差异,以此来使模型更加关注于上下文知识。实验结果表明,本文方法的性能达到了SOTA,尤其对于LLaMa-2-7B和LLaMa-3-8B,分别实现了129%和136%的显著ACC提升,SSR指标也明显下降。这证明了通过增加上下文感知神经元的权重,模型可以从依赖预先存储的参数知识转向利用上下文知识。此外,IRCAN和CAD技术能够产生叠加效应,结合CAD后性能进一步提升。

22e483160d1863d6e091dfc35c902ead.png

在多项选择任务中,除了前面提到的baseline,实验还增加了基于Prompt Engeering的baselines,包括三种明确指示模型在回答问题时更加关注上下文的方法和一种使用基于opinion的prompt的方法。结果显示,基于Prompt Engeering的方法并未带来一致的性能提升,甚至在某些模型上还导致了性能下降,但IRCAN在所有模型上都实现了稳定的性能提升,并且在结合CAD后,性能也进一步得到提高。

43909d75195c7447e6d1a6b6b4cc963f.png

为了进一步验证IRCAN识别的神经元是否在处理上下文中发挥关键作用,作者进一步进行了消融实验,包括:擦除(将权重置为0)检测到的上下文感知神经元;随机增强或删除与 IRCAN 中实现的相同数量的神经元。结果显示,与 IRCAN 的结果相比,当上下文感知神经元被擦除时,准确率大幅下降。然而,无论是擦除还是增强随机神经元,性能都与原始模型相似。这表明本文检测到的上下文感知神经元在解决知识冲突方面发挥着关键作用,从而验证了它们在模型功能中的重要性。

7b0d63d9ad79f43468c08e0ce2d0b24f.png

本文还探究了增强倍数和增强神经元的数量这两个超参数对模型性能的影响。左图显示了在固定神经元数量的情况下,随着上下文感知神经元增强倍数的增加,模型性能在初期逐渐提升,凸显了IRCAN识别的神经元的关键作用。然后,与我们的直觉一致,超过一定的增强强度后性能开始下降。这种下降可能是由于神经元的过度增强导致模型直接崩溃,其输出完全不可用。右图也展示出了类似的结果,随着增强神经元数量的增加,模型性能也呈现出先上升后下降的趋势。

7c55f26b64d67ad5aad19f257f0b3a1c.png

本文还对计算得到的归因分数较高的神经元进行了可视化,观察它们在模型层内部的分布情况。结果显示,大部分神经元集中在高层,也有部分位于中间层。这与以往的研究发现相吻合,即语言模型主要在高层编码高级语义知识。

33ec1272922ee5c3b7ba5484cf1b4c39.png

由于IRCAN增强了某些神经元的权重,这可能会引发一个担忧,即这是否会损害模型的一般能力?为了探究这一点,作者在六个常用的基准上进行了测试,结果显示,与原始模型的性能相比,IRCAN只会导致轻微的性能振荡。这表明IRCAN 可以可靠地提高大语言模型解决知识冲突任务的能力,同时保持其出色的综合能力。

本期文章由陈研整理

往期精彩文章推荐

b0f853ce9705586a035bf086d4af5fb9.jpeg

AAAI 2025预讲会28位讲者相聚|28篇论文工作+2个团队专场,一起期待2025年的首场预讲会

 关于AI TIME 

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。

迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾700场活动,超800万人次观看。

 7c3b076ae54cf020c5ce153b505f6593.png

我知道你 

在看

提出观点,表达想法,欢迎 

留言

b38b467c24ce7ccbc0c62edc38d31422.gif

点击 阅读原文 观看作者讲解回放!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2272736.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【51单片机零基础-chapter5:模块化编程】

模块化编程 将以往main中泛型的代码,放在与main平级的c文件中,在h中引用. 简化main函数 将原来main中的delay抽出 然后将delay放入单独c文件,并单独开一个delay头文件,里面放置函数的声明,相当于收纳delay的c文件里面写的函数的接口. 注意,单个c文件所有用到的变量需要在该文…

扩散模型论文概述(三):Stability AI系列工作【学习笔记】

视频链接:扩散模型论文概述(三):Stability AI系列工作_哔哩哔哩_bilibili 本期视频讲的是Stability AI在图像生成的工作。 同样,第一张图片是神作,总结的太好了! 介绍Stable Diffusion之前&…

数据库软考历年上午真题与答案解析(2018-2024)

本题考查计算机总线相关知识。 总线(Bus)是计算机各种功能部件之间传送信息的公共通信干线,它是由导线组成的传输线束。 根据总线连接设备范围的不同, 分为:1.片内总线:芯片内部的总线; 2.系统…

【three.js】模型-几何体Geometry,材质Material

模型 在现实开发中,有时除了需要用代码创建模型之外,多数场景需要加载设计师提供的使用设计软件导出的模型。此时就需要使用模型加载器去加载模型,不同格式的模型需要引入对应的模型加载器,虽然加载器不同,但是使用方式…

彻底学会Gradle插件版本和Gradle版本及对应关系

看完这篇,保你彻底学会Gradle插件版本和Gradle版本及对应关系,超详细超全的对应关系表 需要知道Gradle插件版本和Gradle版本的对应关系,其实就是需要知道Gradle插件版本对应所需的gradle最低版本,详细对应关系如下表格&#xff0…

预测facebook签到位置

1.11 案例2:预测facebook签到位置 学习目标 目标 通过Facebook位置预测案例熟练掌握第一章学习内容 1 项目描述 本次比赛的目的是预测一个人将要签到的地方。 为了本次比赛,Facebook创建了一个虚拟世界,其中包括10公里*10公里共100平方公里的…

【万字详细教程】Linux to go——装在移动硬盘里的Linux系统(Ubuntu22.04)制作流程;一口气解决系统安装引导文件迁移显卡驱动安装等问题

Linux to go制作流程 0.写在前面 关于教程Why Linux to go?实际效果 1.准备工具2.制作步骤 下载系统镜像硬盘分区准备启动U盘安装系统重启完成驱动安装将系统启动引导程序迁移到移动硬盘上 3.可能出现的问题 3.1.U盘引导系统安装时出现崩溃3.2.不影响硬盘里本身已有…

在 macOS 上,你可以使用系统自带的 终端(Terminal) 工具,通过 SSH 协议远程连接服务器

文章目录 1. 打开终端2. 使用 SSH 命令连接服务器3. 输入密码4. 连接成功5. 使用密钥登录(可选)6. 退出 SSH 连接7. 其他常用 SSH 选项8. 常见问题排查问题 1:连接超时问题 2:权限被拒绝(Permission denied&#xff09…

Linux CentOS 7系统如何修改panel 重新打开最小化的界面/软件/程序

CentOS 7系统下,部分用户可能一开始打开界面没有类似Windows的下方菜单栏,只有一个浮动的panel。一旦打开软件,然后点击最小化后,找不到重新打开的方法。 右键panel,点击Add New Items… 选择以下三个基本就可以了&am…

打造三甲医院人工智能矩阵新引擎(二):医学影像大模型篇--“火眼金睛”TransUNet

一、引言 1.1 研究背景与意义 在现代医疗领域,医学影像作为疾病诊断与治疗的关键依据,发挥着不可替代的作用。从传统的X射线、CT(计算机断层扫描)到MRI(磁共振成像)等先进技术,医学影像能够直观呈现人体内部结构,为医生提供丰富的诊断信息,涵盖疾病识别、病灶定位、…

基于Arduino的FPV头部追踪相机系统

构建FPV头部追踪相机:让你置身于遥控车辆之中! 在遥控车辆和模型飞行器的世界中,第一人称视角(FPV)体验一直是爱好者们追求的目标。通过FPV头部追踪相机,你可以像坐在车辆或飞行器内部一样,自由…

使用 Three.js 创建动态粒子效果

今天,带大家使用粒子实现一个粒子飞毯的效果,我们先来看一下效果。 实现 初始化场景 首先创建一个场景,所有 3D 对象都会被添加到这个场景中。 const scene new THREE.Scene();相机和渲染器 配置相机和渲染器来捕捉和显示场景。 相机…

Linux双端口服务器:端口1的文件系统目录挂载到端口2

目录 一、服务器安装NFS服务并配置二、文件挂载三、持久化挂载总结为什么服务器配置多个端口 目前有一台服务器,不过他设置了两个SSH的端口,通过下面方法可以让这两个端口连接的主机能够共享同一个文件系统,原本这两个端口的文件系统是隔离的…

机器学习算法---贝叶斯学习

1.了解相关概念 先验概率:有数据集d,以及假设h,此时h是不确定的。在还没有训练数据之前h的初始概率记为P(h),类似地我们把P(d)表示训练数据d在任何假设都未知或不确定时的概率。P(d|h)表示已知假设h成立时d的概率。 后验概率:就是在数据d上经过学习之后…

[paddle] 非线性拟合问题的训练

利用paddlepaddle建立神经网络,模拟有限个数据的非线性拟合 本文仍然考虑 f ( x ) sin ⁡ ( x ) x f(x)\frac{\sin(x)}{x} f(x)xsin(x)​ 函数在区间 [-10,10] 上固定数据的拟合。 import paddle import paddle.nn as nn import numpy as np import matplotlib.…

GWAS数据和软件下载

这部分主要是数据获取,以及软件配置方法。 一、配套数据和代码 数据和代码目前在不断的更新,最新的教程可以私信,我通过后手动发送最新版的pdf和数据代码。发送的压缩包,有电子版的pdf和数据下载链接,里面是最新的百度网盘的地址,下载到本地即可。然后根据pdf教程,结合配套的…

win32汇编环境,在对话框中画五边形与六边形

;运行效果 ;win32汇编环境,在对话框中画五边形与六边形 ;展示五边形与六边形的画法 ;将代码复制进radasm软件里,直接编译可运行.重要部分加备注。 ;下面为asm文件 ;>>>>>>>>>>>>>>>>>>>>>>>>>&g…

springcloud 介绍

Spring Cloud是一个基于Spring Boot的微服务架构解决方案集合,它提供了一套完整的工具集,用于快速构建分布式系统。在Spring Cloud的架构中,服务被拆分为一系列小型、自治的微服务,每个服务运行在其独立的进程中,并通过…

如何进行千万级别数据跑批优化

目录 背景问题分析解决方案 数据库问题分片广播分批获取事务控制充分利用服务器资源MQ消费任务并行动态调整并发度失败任务如何继续下游接口时间线程安全异常 & 监控 总结 背景 定义:跑批是指在特定日期对大量数据进行定时处理的过程。在金融领域,…

电脑提示wlanapi.dll丢失怎么办?wlanapi.dll丢失的多种解决方法

电脑提示wlanapi.dll丢失?别担心,这里有多种解决方法! 作为软件开发领域的从业者,我深知电脑在运行过程中可能会遇到的各种问题,其中“wlanapi.dll丢失”这一报错信息就常常让用户感到困惑和不安。今天,我…