©PaperWeekly 原创 · 作者 | OE-Heart
引言
推理能力是人类智能的核心能力之一。随着预训练技术的不断发展,大模型辅之以提示学习(如 Chain-of-Thought Prompting [1])涌现出一系列的惊人的推理能力,引起了学术界、工业界学者的广泛关注。本文介绍一篇「基于语言模型提示学习的推理」综述,其从提示学习的视角对各种前沿推理工作进行了系统的划分、梳理和对比(近期还有 2 篇关于大模型推理的综述参见 [2][3])。
论文链接:
https://arxiv.org/abs/2212.09597
资源列表:
https://github.com/zjunlp/Prompt4ReasoningPapers
本文对「基于语言模型提示学习的推理」的最新进展进行了梳理,包括预备知识、提示推理方法的分类、深入的比较和讨论、开放的基准和资源、以及未来的潜在方向。
预备知识
对于标准的提示(Prompt)学习,给定推理问题 、提示 和参数化的概率模型 ,推理任务的目标是最大化答案 的概率,即:
其中 表示答案 的第 个 token, 表示答案 的长度。对于少样本提示, 由 对形式的 个样例组成。
为了提高预训练模型的提示推理能力,近期的工作有两个主要的研究分支。第一个分支是增强提示中的推理策略,包括提示工程、推理过程优化和外部推理引擎。
对于提示工程,许多方法尝试直接提高提示 的质量,这些方法可以称为单阶段方法。其他一些方法在每个推理阶段,将 作为上下文(Context)附加到 中,或者为每个 设计特定的提示 ,这些方法可以称为多阶段方法。例如,可以将一个复杂的问题分解成若干更简单的子问题,逐个推理推理步 加入提示中构成 ,因此公式(1)可以变换为:
其中 和 定义为:
是其中一个推理步,总计 个推理步。
对于推理过程优化,最简单的方法是引入一个参数化的优化器在生成答案 时校准推理步 ,这类工作可以称为自优化方法。而集成优化方法尝试从多个推理过程中联合得到最终结果。除此之外,整体的优化过程还能以迭代的方式与语言模型微调(生成目标三元组 )相结合,这类方法可以称为迭代优化方法。另外还有一些工作利用外部推理引擎生成提示 或直接执行推理步 来进行推理。
第二个研究分支是增强提示中的知识。大模型中富含的隐式知识可以帮助模型生成知识或推理依据作为知识提示。同时,外部资源中的显式知识也可以被利用并通过检索作为知识提示来增强推理。
方法分类
3.1 策略增强的推理
策略增强系列的工作主要目的是设计更好的推理策略来增强大模型的推理表现,具体分为提示工程、推理过程优化和外部推理引擎。
提示工程
单阶段方法。顾名思义,单阶段方法中预训练模型会结合各种的提示,一次生成出问题的推理结果。早期的工作 [4] 大多采用基于模板的提示进行推理。考虑到大规模语言模型的强大上下文学习(In-context Learning)能力,思维链提示方法 [1] 添加了被称为思维链的中间推理步骤到少样本提示的范例中,来诱导预训练模型更好地完成推理。除了少样本推理外,预训练模型还可以进行零样本推理,仅需要在问题后拼接“Let's think step by step” [5] 作为提示,预训练模型即可被引导生成推理步骤并完成推理问答。
多阶段方法。人类在推理时,通常很难一下想出整个推理过程。更直观的解决办法是把一个复杂的问题分解成更简单的子问题,逐个进行推理解决。同样,多阶段方法旨在将之前的单阶段提示转变为多阶段提示。Maieutic prompt 方法 [6] 将每一阶段的输出视作单独的新问题,而 Least-to-most prompt [7] 和 Iteratively prompt [8] 方法将每一阶段的输出附加到上下文中来提示预训练模型。Decomposed prompt [9] 方法则将任务分解为多个分离和合并子任务,并为解决每个子任务设计特定的提示。
推理过程优化
自优化。自优化方法通过引入额外模块来纠正推理过程。Calibrator 方法 [10] 利用一个校准器根据分数调整预测的概率,其中分数反映了推理依据的真实性。在生成文本推理依据时,Human-AI 方法 [11] 微调了一个 Seq2seq 模型作为过滤器,以预测生成的推理依据是否可以接受。
集成优化。为了缓解单一推理路径的限制,集成优化方法在多个推理路径之间进行集成校准。Self-consistency 方法 [12] 引入了自然语言生成中常用的采样策略来获得多个推理路径,并通过多数投票产生最一致的答案。考虑到一个推理路径得出错误答案时,并非所有推理步都导致最终的错误,DIVERSE 方法 [13] 提出了一个步骤感知的投票检验器来对每个推理路径进行评分,当错误的推理路径多而正确的推理路径少时,步骤感知的投票检验器可以缓解简单多数投票的限制。
迭代优化。迭代优化方法使用预训练模型微调迭代地校准推理过程。具体来说,基于迭代优化的方法可以重复提示预训练模型生成推理路径的过程,并用包含生成的推理过程的实例来微调自身。STaR 方法 [14] 从较小的一组范例开始,推动预训练模型生成推理步并自己回答,正确答案的问题和推理步将直接添加到用于微调的数据集中。
外部推理引擎
在使用预训练模型提示进行推理时,模型应同时具有语义理解和复杂推理(例如通过生成推理过程)的能力,但往往鱼和熊掌不可兼得。为了解决这种障碍,预训练语言模型还可以借助外部推理引擎进行推理。
物理模拟器。给定一个物理推理问题,Mind’s eye 方法 [15] 利用一个物理计算引擎来模拟物理过程。模拟结果可以作为帮助预训练模型推理的提示,弥补了预训练模型物理知识的不足。
代码解释器。程序和代码在鲁棒性和可解释性方面具有天然优势,并且可以更好地说明复杂的结构并推导复杂的计算。PAL 方法 [16] 将求解步骤从预训练模型分离交由程序运行,预训练模型主要保留学习任务,在少样本提示和预训练模型输出中,推理过程由自然语言和编程语言混合,其中自然语言作为注释帮助程序的生成。
3.2 知识增强的推理
隐式知识
许多工作已经表明,预训练模型中包含了相当多的隐式知识,这些知识可以通过条件生成来引出作为知识提示来增强推理。Generated Knowledge Prompting 方法 [17] 使用少样本提示的 GPT-3 生成知识并提示下游预训练模型。在此基础上,Rainier 方法 [18] 借助强化学习进一步校准知识。
不同于上述方法在生成阶段只采用少样本提示,TSGP 方法 [19] 提出了一个两阶段的生成提示,其中还包括答案生成提示。借助知识蒸馏的思想,也有工作 [20] 探索了使用大规模教师模型上的思维链输出在小规模学生模型上进行微调,实现了推理能力的迁移。
显式知识
虽然预训练模型表现出了强大的生成能力,但仍具有幻觉事实和产生不一致知识的倾向。最近的工作表明,在外部语料库中检索用于上下文学习的提示,为模型注入显式知识,能够取得良好表现。
PROMPTPG 方法 [21] 提出了一种基于梯度策略的动态提示检索方法,无需暴力搜索。Vote-k 方法 [22] 制定了一个选择性注释框架,以避免需要大量标记的检索语料库,还开发了一种基于图的方法,以尽可能从大型未标记语料库构建多样化且具有代表性的小型标记数据库,然后可以从小型数据库中检索上下文标记的范例,大大降低注释和检索的成本。
比较和讨论
4.1 预训练模型比较
先前工作已经系统地证明,随着模型规模的增加,少样本提示几乎在各项任务中都有更好的表现,这可以解释为更大规模的模型蕴含更多用于推理的隐式知识。思维链作为提示能够进一步提高性能,在 540B PaLM 模型上表现出最大增益,但当模型规模小于 100B 时,思维链并不能产生性能增益,甚至可能会导致下降。因此,思维链可能引发了模型规模上的“涌现”能力,即较小规模模型中不存在而仅存在于大规模模型中的能力。
另一项有趣的发现是,在相同参数规模下 Codex 的性能显著优于 GPT-3,尽管它们之间的主要区别在于训练语料库(Codex 是代码语料上训练的 GPT-3 变体)。这种现象已经在许多工作中验证,表明模型在代码语料上进行预训练不仅可以实现代码生成、理解的能力,还可能诱发了思维链推理能力。
4.2 提示比较
现有方法的提示的构建方法主要有以下三种:
1. 人工构建提示适用于模板提示和不太复杂的小样本提示。
2. 预训练模型生成提示弥补了人工构建提示费时费力且表现不稳定的缺点。它可以为每个问题定制特定的推理依据,并提供足够的知识和提示进行微调或自我训练。
3. 基于检索的提示通常依赖于注释良好的外部资源(例如维基百科)并消耗昂贵的信息检索,但它可以缓解生成不稳定的问题。
无论是哪种方法生成的提示,实验结果表明思维链推理能力仅表现在少样本提示下的大模型。这些结果表明,输入上下文中显式包含的高质量推理依据是大模型提示推理的关键(近期工作 [23] 表明思维链和问题的相关性及推理过程更加重要)。
尽管一些工作尝试探索大模型的上下文学习能力,对 NLP 社区而言,思维链提示能够在大模型取得成功仍然是未解之谜。一种可能的原因是思维链是代码预训练的副产品,并可以通过提示解锁。在少样本提示中包含思维链的样例可以被视为一种激发隐藏在大模型中的推理能力的指令。
基准和任务分类体系
数学推理。数学推理(或算术推理)能力是在数学单词问题上进行推理的能力。数学推理技能是人类智能的重要能力,也是通用人工智能系统必不可少的能力。早期的工作专注于需要单步或多步推理的小学水平数学问题,且数据量相对较小。后来的工作增加了数据集的复杂性和规模,并引入了更难的问题。
常识推理。常识知识和常识推理是机器智能的核心问题。在回答问题时,人类通常会利用上他们丰富的世界知识。而对于预训练模型,执行常识推理的主要挑战在于如何在一般背景知识的假设下涉及物理和人类交互。
逻辑推理。逻辑推理的常见形式包括演绎推理和归纳推理。演绎推理是通过从一般信息到特定结论来进行的,该任务的典型数据集由合成规则库和派生结论组成。与演绎推理相反,归纳推理旨在通过从特定到一般来得出结论。
符号推理。这里的符号推理仅表示测试一组简单符号操作函数的任务,而不是符号 AI,符号 AI 是由规则引擎或专家系统或知识图谱实现的更通用的概念。这类任务的构建通常由人工明确定义,因此很容易将测试集划分为域内测试集和域外(OOD)测试集。
多模态推理。大多数现有的推理基准仅局限于单一文本模态并且域多样性有限。而人类在进行推理时会利用来自不同模态的可用信息。为此,多模态推理基准被提出以缩小这一差距。
各类推理任务的常用数据集如下。
未来方向
预训练模型推理理论。大模型已经被证明具有“涌现”的零样本学习和推理等能力。为了探究这样的成功中的原因,许多研究人员从经验上探讨了上下文学习(如 [24] 探讨了 In-context Learning 可以近似为一种前向梯度下降)和推理依据的作用,但仍需要对大模型提示学习推理的潜在理论原理有更深入的理解。
高效推理。现有的方法主要依赖于大模型,这会消耗大量的计算资源。考虑到实用性,研究开发高效大模型即是服务 [25],或通过大模型赋能小模型推理是有必要的,在模型训练和推理过程中有利于降低碳排放实现绿色 AI。
鲁棒、可信、可解释推理。大多数深度学习模型缺乏鲁棒性和可解释性,尤其是在推理等需要强逻辑的任务中。近期有工作 [26] 发现大模型提示学习推理存在很强的偏见和毒性,因而研究鲁棒可信可解释的推理具有非常重要的意义。
多模态(交互式)推理。文本推理仅局限于可以通过自然语言表达的内容。考虑到人类在现实世界中推理时信息的多样性,一个更有前途的方向是多模态推理。此外,多模态(交互式)推理方法也可以受其他领域(例如认知科学等)的启发。
泛化(真正的)推理。泛化是模型获得真正推理能力的最重要标志之一。给定一个推理任务,我们希望 预训练模型不仅可以处理问题本身,还可以解决一组类似的推理任务(在训练阶段未见过)。现阶段,大模型基于提示学习涌现出一定的分布外泛化能力 [27],这种能力是否可以适用于推理并实现新领域、新任务的自适应仍值得探索。
参考文献
[1] Chain of Thought Prompting Elicits Reasoning in Large Language Models NeurIPS 2022
[2] Towards Reasoning in Large Language Models: A Survey 2022
[3] A Survey of Deep Learning for Mathematical Reasoning 2022
[4] Template Filling for Controllable Commonsense Reasoning 2021
[5] Large Language Models are Zero-Shot Reasoners NeurIPS 2022
[6] Maieutic Prompting: Logically Consistent Reasoning with Recursive Explanations EMNLP2022
[7] Least-to-Most Prompting Enables Complex Reasoning in Large Language Models 2022
[8] Iteratively Prompt Pre-trained Language Models for Chain of Thought EMNLP2022
[9] Decomposed Prompting: A Modular Approach for Solving Complex Tasks 2022
[10] The Unreliability of Explanations in Few-shot Prompting for Textual Reasoning NeurIPS 2022
[11] Reframing Human-AI Collaboration for Generating Free-Text Explanations NAACL2022
[12] Self-Consistency Improves Chain of Thought Reasoning in Language Models 2022
[13] On the Advance of Making Language Models Better Reasoners 2022
[14] STaR: Self-Taught Reasoner Bootstrapping Reasoning With Reasoning 2022
[15] Mind's Eye: Grounded Language Model Reasoning through Simulation 2022
[16] PAL: Program-aided Language Models 2022
[17] Generated Knowledge Prompting for Commonsense Reasoning ACL2022
[18] Rainier: Reinforced Knowledge Introspector for Commonsense Question Answering EMNLP2022
[19] TSGP: Two-Stage Generative Prompting for Unsupervised Commonsense Question Answering EMNLP2022 Findings
[20] Explanations from Large Language Models Make Small Reasoners Better 2022
[21] Dynamic Prompt Learning via Policy Gradient for Semi-structured Mathematical Reasoning 2022
[22] Selective Annotation Makes Language Models Better Few-Shot Learners 2022
[23] Towards Understanding Chain-of-Thought Prompting: An Empirical Study of What Matters 2022
[24] Why Can GPT Learn In-Context? Language Models Secretly Perform Gradient Descent as Meta-Optimizers 2022
[25] Black-Box Tuning for Language-Model-as-a-Service ICML2022
[26] On Second Thought, Let’s Not Think Step by Step! Bias and Toxicity in Zero-Shot Reasoning 2022
[27] https://yaofu.notion.site/A-Closer-Look-at-Large-Language-Models-Emergent-Abilities-493876b55df5479d80686f68a1abd72f
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
·
·