知识增强语言模型提示 零样本知识图谱问答10.8+10.11

news2024/9/22 11:23:34

知识增强语言模型提示 零样本知识图谱问答

  • 摘要
  • 介绍
  • 相关工作
  • 方法
    • 零样本QA的LM提示
    • 知识增强的LM提示
    • 与知识问题相关的知识检索
  • 实验设置
    • 数据集
    • 大型语言模型
    • 基线模型和KAPIN
    • 评估指标
    • 实现细节
  • 实验结果和分析
  • 结论

在这里插入图片描述

摘要

大型语言模型(LLM)能够执行 零样本closed-book问答任务 ,依靠其在预训练期间存储在参数中的内部知识。然而,这种内部化的知识可能是不足和错误的,这可能导致LLM生成错误的答案。此外,对LLM进行微调以更新其知识是昂贵的。为此,本文提议直接在LLM的输入中增加知识。具体而言,首先根据问题与相关事实之间的语义相似性从知识图谱中检索与输入问题相关的事实。然后,将检索到的事实以提示的形式前置到输入问题之前,然后将其转发给LLM生成答案。本文提出的框架,称为knowledge-Augmented language model PromptING(KAPING),无需模型训练,因此完全是零样本的。

还验证了KAPING框架在知识图谱问答任务上的性能,该任务旨在基于知识图谱上的事实回答用户的问题,在此任务上,本文的方法在多个不同规模的LLM上相对于相关的零样本基线平均提高了高达48%的性能。

Closed-book问答任务指在回答问题时,模型只能依靠其在预训练阶段学到的知识,而无法进行额外的外部搜索或引用。这意味着在回答问题时,模型不能直接访问互联网或其他外部资源。
Zero-shot closed-book问答任务是一种更具挑战性的闭书问答任务,其中模型在没有任何先前训练的情况下,无需额外的模型微调或更新,直接回答问题。
在传统的闭书问答任务中,模型需要在预训练后进行微调,以根据特定的问题集和答案集进行调整。而在zero-shot closed-book问答任务中,模型不需要进行任何额外的调整或微调,仍然可以回答新问题。
这种任务要求模型能够利用其预训练阶段学到的通用语言理解和推理能力,以及内部的知识表示来解决新问题。模型需要将问题与其内部知识进行联结,从而推断出答案,而无需对任务进行特定的针对性训练。
在zero-shot closed-book问答任务中,模型通常会使用问题的提示信息或关键词来引导答案的生成。模型会利用其预训练的语言表示能力和对内部知识的理解,以及与问题相关的提示信息,生成可能的答案。

介绍

在这里插入图片描述

预训练语言模型通过自监督学习在大量文本语料上进行训练,可以执行闭书问答(closed-book Question Answering,QA)任务,即仅依靠其内部参数中的知识来回答用户的问题,而不使用任何外部知识。此外,当增加语言模型的规模时,大型语言模型可以在没有任何额外微调步骤的情况下为问题生成答案,这称为语言模型提示(LM prompting)。然而,由于LLMs中的知识可能是不完整、错误和过时的,它们经常会生成事实上错误的答案,即所谓的幻觉(hallucination)(见图1a)。此外,通过参数更新来完善LLMs中的知识是昂贵的,特别是当知识不断变化时(例如货币汇率)。最后,LLMs是否正在获取正确的知识来回答问题尚不清楚。

为了克服这些限制,本文提出直接检索和注入相关知识作为输入,称为提示(prompt),传递给LLMs(图1b)。使用知识图谱作为知识源,其中包含以三元组形式表示的符号知识(头实体、关系、尾实体)。因此,为了提取与输入问题相关的事实,首先将问题中的实体与知识图谱中的实体进行匹配。然后,与知识图谱中的实体相关联的三元组被转化为文本形式,并 前置到输入问题前面 ,然后传递给LLMs生成答案。

“前置到输入问题前”
指的是将相关知识直接插入到输入问题之前,作为输入序列的一部分。在传统的问答系统中,只有输入问题作为模型的输入,模型需要通过自身的预训练知识来回答问题。而在这种方法中,我们将从知识图谱中提取的相关知识以文本形式添加到输入问题之前,形成一个新的输入序列。
举个例子,假设有一个问题:
“谁是美国的第一位总统?”。
如果我们有一个知识图谱,并且知道其中包含了以下三元组:(美国,首都,华盛顿)和(华盛顿,位于,哥伦比亚特区)。那么,在前置知识的情况下,我们可以将这些知识转化为文本形式:
“美国的首都是华盛顿,华盛顿位于哥伦比亚特区。”
然后将这个文本知识添加到原始问题之前,形成新的输入序列:
“美国的首都是华盛顿,华盛顿位于哥伦比亚特区。谁是美国的第一位总统?”。
通过这种方式,语言模型在生成答案时可以同时考虑问题和前置的知识,从而能够更好地利用外部知识来提高答案的准确性和相关性。这种前置知识的方法可以帮助语言模型更好地理解问题的上下文和意图,避免产生基于不准确或过时知识的错误答案。

因此,基于事实知识的LLMs能够生成准确的答案,减轻了幻觉问题,同时保持LLMs的参数不变,无需进行知识更新的微调。整体框架称为Knowledge-Augmented language model PromptING(KAPING),它完全是零样本的,并且可以与任何现成的LLMs一起使用,无需额外的训练。

虽然上述方案看起来简单而有效,但还存在一些挑战。
首先,与问题实体相关的大多数检索到的三元组与回答给定问题无关。例如,在维基数据知识图谱中为问题实体(例如Poseidon)检索相关的三元组时,存在60个三元组,其中大多数(例如流派、出版日期等)与回答问题无关。因此,它们可能会误导模型生成错误的答案。
另一方面,问题实体的三元组数量有时很大(例如,WebQSP数据集中有27%的样本有超过1000个三元组),因此编码包括不必要的所有三元组会带来很高的计算成本,特别是对于大型语言模型来说。

为了克服这些挑战,受信息检索的启发,进一步提出了 基于语义相似性过滤不必要三元组 的方法。具体而言,首先将问题及其相关的语言化三元组表示为嵌入空间中的向量。然后,检索出一小部分三元组,其嵌入与输入问题的嵌入相比其他三元组更接近。这样,只将与给定问题更相关的三元组前置,可以有效防止大型语言模型生成与问题无关的答案,并且具有高的计算效率,不像增加所有三元组的方法那样。值得注意的是,这种过滤方法使用 现成的句子嵌入模型,因此在我们的流程的每个部分都不需要额外的训练。

基于语义相似性过滤不必要的三元组
是指通过比较问题和其关联的三元组之间的语义相似性来筛选出与问题相关性较高的三元组,从而减少不相关的三元组对于问题回答的干扰。
在知识图谱问答任务中,通常通过检索知识图谱中与问题实体相关的三元组来获取问题的背景知识。然而,检索到的三元组中可能包含大量与问题无关的信息,这些不必要的三元组可能会误导模型,导致生成错误的答案。
为了解决这个问题,可以使用语义相似性来衡量问题和三元组之间的相似程度。常见的方法是将问题和三元组表示为向量形式,然后计算它们之间的相似度。根据相似度的大小,可以选择保留与问题最相关的三元组,而过滤掉与问题关联性较低的三元组。

"现成的句子嵌入模型"指的是已经经过预训练并可供使用的句子级别的文本表示模型。这些模型通过将输入的句子转换为连续向量表示,捕捉句子的语义和语法信息,并将其映射到一个高维向量空间中。这些向量表示可以用于计算句子之间的相似性、分类、聚类等自然语言处理任务。常见的句子嵌入模型包括BRERT、GPT等。

然后,在知识图谱问答(KGQA)任务中验证了KAPING框架。结果表明,KAPING显著优于相关的零样本基线。此外,详细的分析支持知识检索和增强方案的重要性。

本文这项工作中的贡献有三个方面:
• 提出了一种新的知识增强的语言模型提示框架,利用知识图谱中的事实知识进行零样本问答。
• 提出了基于问题及其相关三元组之间的语义相似性来检索和增强知识图谱中相关事实的方法。
• 在知识图谱问答基准数据集上验证了我们的KAPING,在这些数据集上,本文的方法令人印象深刻地优于相关的零样本基线。

相关工作

语言模型提示
语言模型预训练是一种训练Transformer模型的方法,使用未标注的文本语料库进行自编码或自回归目标的训练。它已成为自然语言任务的一种重要方法。此外,大型语言模型能够进行零样本学习,例如基于预训练参数中存储的知识,根据输入的文本提示生成答案,而无需额外的参数更新或标记的数据集。为了进一步提高它们的性能,一些工作提出从训练数据集中检索与输入问题相关的样本,并将它们在少样本学习中添加到提示中。最近的一些工作进一步表明,当LLMs在从自然语言任务中提取的一系列指令上进行微调时,它们在未见过的零样本任务上具有强大的泛化性能。然而,LLMs内部的知识可能不足以处理事实性问题,这引发了知识增强的LLMs。

知识增强的语言模型
最近的研究提出将知识,如来自无结构语料库(例如维基百科)的文档和来自知识图谱的事实,整合到语言模型中。其中,REALM和RAG学习检索文档并将其与语言模型结合。此外,知识图谱也可以是另一种知识源,其中知识以最紧凑的形式进行编码,一些方法将KG中的事实增强到语言模型中。然而,所有上述方法都需要大量的训练数据和模型更新用于下游任务。虽然最近的一些工作表明,通过检索增强的语言模型在少样本学习中具有很强的性能,但仍需要额外的训练步骤,这与完全零样本的LM提示不同。

最近,有几项研究在LM提示方案中增加了知识。首先,一些工作提出通过提示提取LLMs本身参数中的知识,然后使用提取的知识回答问题。然而,由于LLMs的参数可能不足以存储所有世界知识,提取的知识和生成的答案可能不准确。另一方面,最近,Lazaridou等人提出使用谷歌搜索在Web上检索文档,然后将检索到的文档与少样本演示一起添加到输入问题中,在少样本的LLM提示方案下回答问题。然而,关注与之前研究不同的零样本提示与KGs的结合,利用KGs可以带来额外的优势。具体而言,由于KGs可以以紧凑的三元组形式简洁地编码知识,在问答任务中,相比于文档情况,本文的方法使LLM提示更加高效(即减少输入序列长度),同时在零样本问答方案上更加有效:LLMs需要从提示中选择包含答案实体的一个三元组,而不是查找包含各种实体的冗长文档。

方法

接下来描述KAPING框架。

零样本QA的LM提示

首先从零样本问答开始,然后解释语言模型提示。

零样本问答
给定一个输入问题x,问答(QA)系统返回一个答案y,其中x和y都由一系列标记组成:x = [w1,w2,…,w|x|]。假设P是一个基于生成语言模型的QA模型,它生成给定问题x的答案y的条件概率如下:P(y|x)。与使用一组带标注的(x , y)样本来训练模型P的监督学习不同,零样本学习不使用任何带标签的样本和模型训练。值得注意的是,对这种零样本QA感兴趣是因为收集数据集并为每个新领域微调现有的LM被认为是昂贵且有时不可行的。

LM提示
LM通常通过基于先前标记预测下一个标记进行预训练,这被称为自回归语言建模。然后,由于这种预训练目标,LLM可以进行零样本指令学习。具体而言,当向LLM(即P)提供一个问题和一条指令(例如,“请回答以下问题:《Lady Susan》的作者是谁?”)时,LLM在输入文本的条件下可以顺序生成输出标记的概率,这可能是一个答案,比如“Jane Austen”。

为了更规范,对于每个输入问题x,首先使用特定的指令模板T将其修改为一个文本字符串x’,称为提示(prompt),如下所示:T:x → x’。例如,如果我们有先前的问题x = “Who is the author of Lady Susan?” 以及先前的指令模板"Please answer the question:",则生成的提示x’将为T(x) = “Please answer the question: Who is the author of Lady Susan?”。然后,将提示x’传递给LLM(即P),LLM通过P(y|x’)生成答案(即y)。注意,这种LM提示方案不需要对标记数据进行任何额外的模型参数更新(即微调),因此适用于目标零样本QA任务。

然而,在这种单纯的零样本提示QA中存在多个挑战。首先,LLM依赖参数中的知识,容易生成事实上不正确的答案,因为LLM中的知识可能是不准确和过时的:知识可能随时间的推移而出现和变化。此外,使用额外的参数更新来改进内部知识是昂贵的,而且有必要反映错误和不断增长的知识。最后,LLM在生成对问题提示的答案时记忆和利用哪些知识是不清楚的,这限制了它们在输出上的可解释性。

知识增强的LM提示

为了解决现有LM提示方案的前述限制,本文提出了一种将相关知识从知识图谱(KG)注入到输入问题中的方法,称为增强知识语言模型提示(Knowledge-Augmented language model PromptING,KAPING)。

在本小节中,首先定义了KAPING框架的主要目标,然后介绍了增强KG上的知识以及注入到LM提示中所需的要素。

使用知识图谱进行LM提示
不再仅依赖于 参数内部化的知识 ,而是提出通过访问和注入来自外部KG的知识来回答问题,这些知识包含对回答问题有帮助的准确和最新的事实。形式上,知识图谱G由一组事实三元组{(s, r, o)}组成,其中s和o表示主体和客体实体,r是它们之间的特定关系类型。例如,一个关系型知识"《Lady Susan》是由Jane Austen编写的"可以表示为一个包含两个实体s = "Lady Susan"和o = "Jane Austen"以及关系r = "written by"的三元组。然后,对于通过模板T从示例问题x = "Who is the author of Lady Susan?"转换而成的问题提示x’,还将其相关三元组(Lady Susan, written by, Jane Austen)增加到LM提示方案中。通过这样做,LLM可以根据来自KG的增强知识生成正确的答案,形式化表示为P(y|x’, G)。需要注意的是,由于可以在KG中提供特定和有效的事实给LLM,该框架可以缓解LLM中不准确和过时知识导致的错误生成问题,而无需昂贵地更新模型参数。此外,还可以确认LLM是否基于增强事实生成答案,从而提高LM提示的可解释性。

剩下的问题是如何从输入问题中访问KG上的关系符号事实,将符号知识转化为文本字符串,并将转化后的知识注入到LM提示方案中。下面的段落中将逐一解释它们。

知识访问
为了利用与输入问题相关的事实,首先提取问题中的实体。例如,对于问题"谁是《Lady Susan》的作者?“,提取出实体"Lady Susan”。然后,基于提取的实体,在知识图谱中找到对应的实体,其关联的三元组成为与输入问题相关的事实。需要注意的是,实体匹配可以通过现有的实体链接技术来完成。

知识转化
LLMs处理的是文本输入,而事实三元组表示为符号图。因此,在将来自知识图谱的符号事实注入到LLMs之前,首先将包含(s, r, o)的三元组转化为文本字符串,称为转化。虽然存在最近的方法专门设计或学习图到文本的转换,但在本工作中,我们使用线性转化:将三元组中的主体、关系和客体文本连接起来,我们观察到这在LM提示中效果良好(参见附录B.5)。例如,一个三元组(Lady Susan, written by, Jane Austen)直接使用为"(Lady Susan, written by, Jane Austen)"作为LLM的输入。

知识注入
基于与输入问题相关的转化后的事实,剩下的步骤是实现知识注入机制,使LLMs能够基于外部知识生成答案。假设有一个与问题x相关的N个关联三元组k = {(sᵢ, rᵢ, oᵢ)}ᴺᵢ₌₁。类似于上述描述的指令模板T:x → x’,修改N个转化后的三元组k,并将知识注入指令添加到知识提示k’中,如下所示:T:k → k’。用于构建提示的一个特定模板,首先逐行列举N个转化后的三元组,然后在提示的顶部添加具体指令:“以下是以三元组形式表示的对回答问题有意义的事实。”。之后,将这样的知识提示字符串k’添加到问题提示x’之前,LLMs根据知识和问题提示生成答案标记,形式化表示为P(y|[k’, x’]),其中[·]表示连接。

与知识问题相关的知识检索

KAPING框架允许LLMs利用知识图谱中的知识进行零-shot问答。然而,存在一个关键挑战,即与问题相关的三元组数量往往太大,无法直接用于LLMs。而且,其中大部分与问题无关,会误导LLMs生成不相关的答案。

知识检索器
为了克服这些限制,进一步提出仅检索和增强与问题相关的三元组。需要注意的是,存在一种文档检索方案,其目标是根据嵌入相似性为给定查询检索相关文档,这激发了我们检索用户问题的三元组的想法。特别是,由于在上一节中定义的知识转化器,可以在文本空间中操作从符号知识图谱中获取的三元组。因此,对于转化后的三元组和问题,首先使用现成的句子嵌入模型对它们进行嵌入表示,然后计算它们之间的相似性。然后,仅使用与给定问题相关的前K个相似三元组,而不是使用所有与问题相关的N个三元组。需要注意的是,与最近的一些研究不同,这些研究旨在通过监督训练改进知识图谱检索器本身,专注于使用知识图谱进行零样本LM提示,因此将现成的检索器作为工具,用于过滤掉与问题无关的三元组。

实验设置

解释数据集、模型、度量和实施。

数据集

在两个知识图谱问答(KGQA)数据集上评估知识增强语言模型PromptING(KAPING)框架,分别是WebQuestionsSP和Mintaka。

WebQuestionsSP(WebQSP) 这个数据集是使用Freebase知识图谱设计的。它包含1,639个测试样本,我们将其用于零样本评估。另外,由于Freebase已经过时,我们还使用了Wikidata知识图谱,并使用了从Freebase ids到Wikidata的可用映射。这个额外的数据集包含1,466个样本。

Mintaka 这个数据集是最近使用Wikidata知识图谱设计的用于复杂KGQA任务的数据集。在8种不同语言中,我们使用英语测试集,其中包含4,000个样本。

大型语言模型

为了验证KAPING框架在大型语言模型(LLM)上的性能,并在零样本KGQA上进行基准测试,使用各种不同大小的LLM。

具体而言,使用了T5、T0(3B、11B)、OPT(2.7B、6.7B)和GPT-3(6.7B、175B)。详细信息请参见附录A.2。

基线模型和KAPIN

在这个小节中解释了四个零样本LM提示的基线模型以及KAPING框架。

无知识(No Knowledge) 这是一个简单的LM提示基线,它在没有来自知识图谱的知识增强的情况下从输入问题生成答案。

随机知识(Random Knowledge) 这是一个LM提示基线,它还会将与问题中出现的实体相关的随机抽样的K三元组增加到提示中。

热门知识(Popular Knowledge) 这是一个LM提示基线,它根据在知识图谱中最常见的关系,将K个热门三元组增加到提示中,这些三元组来自于问题实体的所有三元组中。

生成的知识(Generated Knowledge) 这是一个LM提示的基线模型,它首先根据提示从LLM中提取知识,然后将其作为提示的形式进行增强。

KAPING(本文提出的模型) 这是本文的知识增强语言模型PromptING(KAPING)框架,它首先使用知识检索器检索与问题相似的前K个三元组,然后将它们作为提示的形式进行增强。

评估指标

生成 评估遵循生成式知识图谱问答(generative KGQA)的评估协议,使用准确率作为评估指标,衡量给定提示生成的标记中是否包含答案实体之一。值得注意的是,还考虑了Freebase和Wikidata知识图谱中可用的答案实体的别名(一组替代名称)进行评估。

检索 评估我们还衡量检索器的性能,以了解检索到的三元组对于答案生成的帮助程度。作为评估指标,我们使用平均倒数排名(Mean Reciprocal Rank,MRR)和Top-K准确率(Top-K),它们通过正确检索到包含答案实体的三元组在与问题实体相关的所有三元组中的排名进行计算。

实现细节

对于知识注入,将检索到的事实数目设置为10(K = 10),三元组检索的跳数为1。对于基于文本的检索器,我们尝试使用MPNet,它使用相同的编码器对问题和三元组进行嵌入。有关详细信息,请参见附录A.4。

实验结果和分析

提供了KAPING框架的总体结果以及对其进行的全面分析。

主要结果 如表1所示,KAPING框架在零样本KGQA任务中显著优于所有的LM提示基线模型。特别是,生成的知识模型在性能上大多低于无知识模型,因为从LLM中提取的知识可能是不准确的。
另一方面,随机知识和热门知识基线模型能够提升性能,因为从知识图谱中增强的知识有时对回答问题是有用的。然而,KAPING模型表现更好,这表明对于零样本的LM提示问答,LLM中内部化的知识不足以生成准确的答案,只使用相关的事实知识是很重要的。

此外,还观察到当LLM相对较小时,性能改进更大。换句话说,由于较小的模型在预训练期间没有足够的参数空间来记忆知识,它们更容易生成事实上不正确的答案。然而,当给予它们适当的知识时,它们的性能有时会变得类似于较大的模型(例如,KAPING对于不同大小的OPT模型具有类似的性能)。因此,对于在资源有限的情况下需要事实知识的任务(例如生产环境),增强知识可能比增加模型大小来处理大量知识更有益。

在这里插入图片描述

检索结果 为了了解增强的知识的相关性,进一步衡量了检索性能。如表2所示,现有的检索模型(即MPNet)在性能上优于随机和热门检索器。这个结果表明我们简单的图转文本表述方法与现有的检索器配合得很好,进一步证实了我们的KAPING在LM提示中增强了有用的事实知识。关于候选三元组的检索跳数,我们观察到当我们将跳数从1增加到2时,检索器更有可能检索到不包含答案实体的不相关三元组,如表2所示。因此,在实验中,从问题实体的1跳三元组中检索知识。
在这里插入图片描述
此外,由于可以根据检索器返回的Top-1三元组中的实体来替代回答输入问题,将LLM的生成性能与检索性能进行了比较。如图2所示,即使在没有知识增强的情况下(即无知识),LM提示方案的性能仍优于仅使用检索到的三元组中的实体进行回答,除了WebQSP w/ Freebase数据集。
此外,KAPING框架与简单的检索方案之间存在巨大差距,这适用于所有数据集。这些结果表明,在零样本KGQA中,利用LLM基于其内部化和外部化的事实知识生成答案会很有帮助,而不是直接在知识图谱中搜索答案实体。

正确和错误检索结果的影响 对正确检索到包含答案实体的三元组对性能改进的影响进行了分析,以及错误检索到不包含答案实体的三元组对性能的影响。如图3所示,当检索到的三元组包含答案实体时,与没有知识增强的模型相比,LLM的性能显著提高。然而,当检索器失败时,性能低于没有知识增强的模型。这些结果表明,当增强相关知识时,LLM能够进行上下文处理并准确生成答案。与此同时,错误检索到的知识使LLM依赖于无关的事实,并生成错误的答案。
在这里插入图片描述
不同数量的知识的影响 改变事实的数量,以查看在提示中增加哪些三元组数量对于性能和墙钟时间之间的权衡是最优的。首先,如图5所示,当三元组的数量为5或10时,大多数LLM达到了相对较高的性能水平。此外,当我们进一步增加增强的三元组数量到15和30时,OPT模型的性能大幅下降。这个结果表明,当无关的三元组数量较多时,一些LLM可能会分散注意力,因此无法选择和生成答案实体。
在这里插入图片描述
在这里插入图片描述

然后,测量了编码器-解码器(T0)和仅解码器(OPT)模型在不同数量的增强三元组下生成答案的墙钟时间。如表3所示,对于编码器-解码器模型,KAPING框架在少于10个三元组的情况下比没有知识增强的模型更快。这是因为当知识增强到模型中时,模型倾向于生成较短的答案,这可以减少解码时间。具体而言,对于带有10个三元组的T0模型,生成的标记长度为15,而无知识模型平均生成32个标记。然而,对于仅解码器模型(OPT),增强的知识越多,模型的速度就越慢,这是由于其自回归特性需要消化输入。

被检索的三元组顺序的影响 在少样本LM提示中,LLM除了观察少量示例外,还对示例的顺序敏感,它们倾向于遵循最后一个示例中的答案。基于这些观察,分析了检索到的三元组的顺序是否影响性能。具体而言,通过将更相似的三元组放置在提示的顶部、底部或随机位置,来改变问题中更相似的三元组的位置。如图4所示,除了WebQSP数据集上的OPT模型外,KAPING对检索到的三元组的位置不敏感。换句话说,OPT模型倾向于生成位于提示输入的第一部分的实体。与此同时,其他LLM可以对整个提示输入进行上下文处理,并生成实体,而不受其位置的影响。
在这里插入图片描述
实体链接的有效性 根据传统的KGQA评估方法,使用数据集中标记的问题实体来检索知识图谱中的事实。然而,为了观察使用实体链接(EL)技术识别出的实体的性能,进一步使用EL模型(即ReFinED)进行实验。如表5所示,尽管由于EL的性能,KAPING w/ EL的性能略有下降,但与没有知识的模型相比,始终观察到了有意义的性能改进。
在这里插入图片描述

案例研究 在表4中进行了一个案例研究。特别是,当没有给予LM知识时,它会产生事实上不正确的答案。然而,当相关的事实被检索并增加到提示中时,它可以生成正确的答案。此外,分析了KAPING是否能够适应更新后的知识,这是因为一些知识可能会随时间变化,而LM中的知识保持不变。为此,如表4的最后一行所示,我们替换了三元组的对象实体,然后将修改后的事实作为提示传递给LM。结果显示,LM可以根据更新后的事实生成输出,这表明了在不昂贵地更新其参数的情况下,适应LM的潜力。

在这里插入图片描述

附加结果 在附录B中提供了额外的实验结果。具体而言,在附录B.1中比较了检索器的性能,对模板文本进行了敏感性分析,在附录B.2中提供了额外指标(包括人工评估)的结果,在附录B.3中验证了我们的KAPING在少样本设置下的效果,在附录B.4中对语言表述进行了分析,以及在附录B.6中提供了效率分析。

结论

在本文中,专注于现有LM提示方案的局限性,这些方案依赖于内部化参数中的静态知识;因此,当这些知识不完整、不准确和过时时,LLM可能会生成事实上不正确的答案。为了解决这一挑战,引入了一种新颖的知识增强语言模型提示(KAPING)框架,该框架直接从知识图谱中为输入问题的提示增添知识,并利用事实检索器仅注入相关知识。所提出的框架完全是零样本的,适用于任何LM,无需额外的参数更新和训练数据集。我们验证了我们的KAPING在KGQA任务上与依赖于其内部知识的LM提示模型之间存在巨大的性能差距,尤其是在使用较小的LM时。从KG中增加事实到LM提示的新机制将在生成基于知识的答案方面产生实质性的影响。

局限性 在本节中,讨论了当前的局限性和未来研究的潜在途径。

首先,知识增强框架的生成性能在很大程度上取决于检索器的有效性。换句话说,如果检索器无法检索到与输入问题相关的事实,那么以无关事实为条件的提示LM很可能会生成错误答案(参见图3)。同样地,如果检索器没有设计用于检索问题实体的2跳邻居的事实,LLMs生成需要2跳知识的答案的可能性较小。请注意,对于Mintaka数据集,具有1跳事实的可回答问题的数量仅占总样本的40%。然而,当包括2跳三元组时,可回答问题的数量增加到62%,这表明了获取2跳检索的必要性,但这仍然具有挑战性(参见表2)。因此,未来的工作可以改进检索方案本身,以向LLM提供更准确的包括多跳的事实,或者可以开发机制来防止LLM被无关事实误导。

另一方面,对于提示的LLM生成性能,评估指标可以进一步改进。具体而言,对于KGQA任务,问题的答案是知识图谱中的实体。然而,没有额外训练的提示LLM(即零样本)往往会将答案生成为句子。例如,在表4中问题的标签实体(例如,Alex Chilton死于哪里?)的答案是“新奥尔良”,然而,LLM经常生成句子级的输出:“Alex Chilton于2010年3月17日在路易斯安那州新奥尔良死于心肌梗死”。目前通过测量生成的标记是否包含答案实体来评估模型性能;然而,开发将LLM的句子级输出与知识图谱中的单词级答案进行更有效比较的附加指标将是值得的。
请注意,还尝试了其他可用的指标(参见附录B.3),例如F1和完全匹配(EM)分数,然而,它们很大程度上惩罚较长的句子(例如,表4中正确示例的EM为0),因此可能不适合评估LM提示方案。

最后,由于专注于提高LM提示中的知识注入,当评估模型时,使用KGQA数据集中的标记实体,遵循现有的KGQA评估设置。然而,在实际应用中,问题中的实体大多数情况下是不提供的,因此首先需要使用现有的实体链接技术提取问题中的实体;因此,模型性能取决于实体链接的有效性。特别是,关于表5中具有实体链接结果的实体的结果,数据集中标记实体的可回答问题部分占总数的40%,然而,使用实体链接模型中的实体的可回答问题部分仅占22%。因此,由于改进的实体链接性能将有助于我们的KAPING框架的性能提升,对于KGQA任务,未来的工作可以推进这样的实体链接方案。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1080293.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

网络安全概述——常见网络攻击与网络病毒、密码体制、安全协议等

目录 1、信息安全五大要素 2、常见的网络攻击类型 2-1)网络攻击的分类: 2-2)常见网络攻击: DOS 攻击的分类: 2-3)常见网络攻击的防范措施 3、计算机病毒 3-1)常见病毒的前缀及其简要描述…

Vuex的简介以及入门案例

🏅我是默,一个在CSDN分享笔记的博主。📚📚 🌟在这里,我要推荐给大家我的专栏《Vue》。🎯🎯 🚀无论你是编程小白,还是有一定基础的程序员,这个专栏…

测评6大最常见的免费开源报表

最近发现几款不错的开源报表,现在给大家分享一下,希望能带来帮助! 1、项目名称:积木报表 项目简介:积木报表,免费的企业级 WEB 报表工具。专注于 “专业、 易用 、优质” 的报表设计器和大屏设计器。支持打…

接口自动化测试详解(文档)

phpunit 接口自动化测试系列 Post接口自动化测试用例 Post方式的接口是上传接口,需要对接口头部进行封装,所以没有办法在浏览器下直接调用,但是可以用Curl命令的-d参数传递接口需要的参数。当然我们还以众筹网的登录接口为例,讲…

大数据之Hudi数据湖_版本兼容与Maven安装配置_解决Hudi与Hadoop3.0的兼容问题_编译hudi源码---大数据之Hudi数据湖工作笔记0002

然后我们来看一下,hudi我们这次安装的时候,各个组件的版本信息 这个hudi对各个版本的支持还是很多的,需要在安装的时候查一下 具体的 可以这样查一下 去看一下具体的hudi对spark的支持是多少,对flink的支持的版本是多少等等可以很容易查到 然后hudi

NSSCTF[SWPUCTF 2021 新生赛]hardrce(无字母RCE)

代码审计&#xff1a; 使用get方式请求给wllm传参 使用preg_match函数正则匹配过滤掉了一些符号 \t,\r,\n,\,\[,\^,\],\",\-,\$,\*,\?,\<,\>,\,\ 以及 [a-zA-Z] 即所有的大小写字母 如果传入内容满足这些条件则会执行eval函数 URL编码取反绕过正则实现RCE&…

【网络安全】「漏洞原理」(一)SQL 注入漏洞之概念介绍

前言 严正声明&#xff1a;本博文所讨论的技术仅用于研究学习&#xff0c;旨在增强读者的信息安全意识&#xff0c;提高信息安全防护技能&#xff0c;严禁用于非法活动。任何个人、团体、组织不得用于非法目的&#xff0c;违法犯罪必将受到法律的严厉制裁。 【点击此处即可获…

聊聊MySql索引的类型以及失效场景

文章目录 概念常见的索引1.B树索引2.哈希索引3.全文索引4.空间索引5.聚集索引 如何设计合理&#xff1f;1.明确索引需求2.选择索引列3.选择索引类型4.考虑索引维护开销5.设计联合索引6.删除不必要索引7.关注索引统计信息8.测试查询效果 常见不生效场景1.全表扫描2.索引列计算3.…

容器轻松上阵,优雅下线才是胜负之道

概述 优雅关闭&#xff1a; 在关闭前&#xff0c;执行正常的关闭过程&#xff0c;释放连接和资源&#xff0c;如我们操作系统执行shutdown。 目前业务系统组件众多&#xff0c;互相之间调用关系也比较复杂&#xff0c;一个组件的下线、关闭会涉及到多个组件。 对于任何一个线…

(2022|NIPS,CogLM,分层,LoPAR,icetk)CogView2:通过分层 Transformer 更快更好地文本到图像生成

CogView2: Faster and Better Text-to-Image Generation via Hierarchical Transformers 公众号&#xff1a;EDPJ&#xff08;添加 VX&#xff1a;CV_EDPJ 或直接进 Q 交流群&#xff1a;922230617 获取资料&#xff09; 目录 0. 摘要 1. 简介 2. 相关工作 3. 方法 3.…

基于SpringBoot+Vue的教师人事档案管理系统

1 简介 基于SpringBootVue的教师人事档案管理系统&#xff0c;教师人事档案管理系统利用信息的合理管理&#xff0c;动态的、高效的、安全的实现了教师的各种需求&#xff0c;改变了传统的网上查看方式&#xff0c;使教师可以足不出户的在线查看最适合自己个人档案、奖惩信息、…

百度一面:谈谈 @Transactional 的原理和坑

百度一面&#xff1a;谈谈 Transactional 的原理和坑 这篇文章&#xff0c;会先讲述 Transactional 的 4 种不生效的 Case&#xff0c;然后再通过源码解读&#xff0c;分析 Transactional 的执行原理&#xff0c;以及部分 Case 不生效的真正原因。 项目准备 下面是 DB 数据和…

js的BoM事件(二)

js的BoM事件&#xff08;二&#xff09;&#xff0c;上一篇的补充 一.alert,confirm二.prompt三.open四.close 一.alert,confirm 实例&#xff1a; alert(hi); confirm(message);二.prompt <body><button ></button><script>var btndocument.querySe…

dbeaver 插入别名设置禁用

1&#xff0c;前提 最近换了一个数据库连接工具&#xff0c;初次使用&#xff0c;非常别扭。 2&#xff0c;问题 首先遇到的第一个问题是 每次输入from table时&#xff0c;后面就会自动添加一个表别名 tt&#xff0c;然后语句就变成这样 from table tt &#xff0c;所以每次…

全面深入了解自动化测试

一、自动化测试 在软件测试中&#xff0c;自动化测试指的是使用独立于待测软件的其他软件来自动执行测试、比较实际结果与预期并生成测试报告这一过程。在测试流程已经确定后&#xff0c;测试自动化可以自动执行的一些重复但必要测试工作。也可以完成手动测试几乎不可能完成的…

飞凌嵌入式受邀参加「NXP创新技术论坛」

2023年10月10日&#xff0c;「NXP创新技术论坛」在深圳湾万丽酒店举行&#xff0c;飞凌嵌入式作为NXP金牌合作伙伴受邀参加此次论坛&#xff0c;与众多智能工业行业的伙伴深入交流市场趋势与行业洞察&#xff0c;共同促进未来市场的发展。 本次论坛&#xff0c;飞凌嵌入式展示了…

GaussDB向量数据库为盘古大模型再添助力

在今年7月7日的华为开发者大会2023(Cloud)期间,华为云盘古大模型3.0正式发布。目前盘古大模型已在政务、金融、制造、医药研发、气象等诸多行业发挥巨大价值。此次华为云发布的GaussDB向量数据库,具备一站式部署、全栈自主创新优势,不仅如此,它的ANN算法在行业排名第一,…

龙讯旷腾:如何建立基于第一性原理的正向研发模式,原子级计算伴随的时间和空间尺度增长将带来的变革

2023年10月8-11日&#xff0c;由中国材料研究学会主办的第四届中国新材料产业发展大会在浙江温州隆重举行。来自全国各地的6000余名新材料专家、企业家、投资家、当地高等院校和企事业单位的代表以及51位两院院士出席了本次大会。龙讯旷腾总经理吕海峰特邀做“先进材料数字化研…

点击、拖曳,15分钟搞定BI零售数据分析

早几年做数据分析还很依赖IT&#xff0c;过程复杂、耗时长、灵活性差&#xff0c;但这几年随着BI智能数据分析技术的成长&#xff0c;零售数据分析发生了翻天覆地的变化&#xff0c;其中最直观的一点就是&#xff1a;点击、拖曳&#xff0c;15分钟内就能搞定BI零售数据分析。 …

uCOSIII实时操作系统 五 任务API(任务创建和删除)

任务创建和删除 引入&#xff1a;一个任务的三要素是任务主体函数&#xff0c;任务栈&#xff0c;任务控制块&#xff0c;那么怎样吧这个三要素联系在一起呐&#xff1f; 任务创建&#xff1a; 在UCOSIII中我们通过函数OSTaskCreate()来创建任务。 作用&#xff1a;任务控制块…