论文理解【LLM-agent】—— 【Reflexion】Language Agents with Verbal Reinforcement Learning

news2024/11/14 17:56:16
  • 文章链接:Reflexion: Language Agents with Verbal Reinforcement Learning
  • 代码:GitHub - noahshinn/reflexion
  • 发表:NIPS 2023
  • 领域:LLM agent
  • 一句话总结:传统强化学习 Agent 通过和环境交互进行试错学习,但对于 LLM agent 来说,微调其权重的成本很高。本文提出的 Reflexion 框架将基于权重调整的试错学习转化为针对 LLM agent 的基于自然语言反馈的试错学习。和强化学习中仅依靠 reward 数值反馈指导优化不同,Reflexion agent 通过维护一个 episodic memory 作为决策的依据,得益于自然语言媒介的灵活性,agent 可以利用各种数据类型和不同来源(外部观测或内部反思)的反馈信号,在多种任务(顺序决策、编码、语言推理)中获得了显著改进。

    本文是 ReAct 论文的一个扩展工作,两文作者有重合。ReAct 方法通过令 LLM 交替生成推理轨迹和任务动作,同时在 NLP 推理任务和控制任务上达成了良好的效果。从智能决策角度看,ReAct 可以看作给 RL/IL agent 扩展了工作记忆,记忆本身存储在上下文中,agent 既可以从环境中获取信息,也可以从工作记忆中获取信息。但是这种记忆还是短期的,且无法编辑(append-only)。相比而言,本文通过维护记忆缓冲实现了可编辑的长期记忆,进一步提升了性能


  • 摘要:LLM 已经越来越多地用作 agent 和外部环境(如游戏、编译器、api)进行交互。然而,由于传统的强化学习方法需要大量的训练样本和昂贵的模型微调,让语言模型快速有效地进行试错学习仍然具有挑战性。我们提出了 Reflexion 框架,通过语言反馈而非权重更新,来强化 LM agent。具体地说,Reflexion agent 对任务反馈信号进行自然语言反思,然后在情景记忆缓冲区(episodic memory)中保持它们自己的反思文本,以便在随后的 rollout 中做出更好的决策。这种框架足够灵活,可以合并各种数据类型(标量值或任意形式的语言)和不同来源(外部观测或内部反思)的反馈信号。在多种任务(顺序决策、编码、语言推理)中,我们的方法相比 strong baseline 获得了显著改进。例如在 HumanEval benchmark 上达到了 91% 的 pass@1 精度,超过了之前最先进的 GPT-4(达成80%)。我们还使用不同的反馈信号、反馈合并方法和 agent 类型进行消融和分析研究,并提供关于它们如何影响性能的见解。

文章目录

  • 1. 方法
    • 1.1 基本思想
    • 1.2 Reflexion:通过口语式反思进行强化学习
  • 2. 实验
  • 3. 总结

1. 方法

1.1 基本思想

  • 本文之前,ReAct、Toolformer、HuggingGPT 等工作已经实现了结合环境交互和内部思考推理的 LLM agent,但是这些方法都还无法有效地通过试错进行学习。这本质是因为这些方法不包含 “学习” 过程,模型的 “工作记忆” 仅存在于其上下文内,而每次 rollout 都会清空上下文,因此以轨迹为单位的交互过程没有对 agent 产生任何影响,某种程度上看就是带有环境交互的一种特殊 LLM 评估任务而已,没有试错学习的能力。但是,直接把 RL 的试错学习框架套用到 LLM agent 上是不合适的,原因有二
    1. LLM 参数规模大,在线训练成本太高,且 batch size 太小不够稳定
    2. 对于复杂任务,MDP 交互框架中的标量 reward 反馈信息量太少,导致信用分配困难
    3. 没有充分利用 LLM 的规划、分析能力
  • 为此,作者提出将环境的标量反馈转化为文本摘要形式的自然语言反馈,然后在下一回合中将其作为额外的上下文输入 LLM agent 中。这种自我反思式的反馈充当了一种 “语义” 梯度信号,通过为 agent 提供一个具体的改进方向帮助它从先前的错误中学习,从而在任务中表现得更好
    • 这种 Reflexion 学习过程中虽然没有调整 LLM 的参数权重,但通过维护情景记忆(episodic memory)保留了交互过程的影响,并将其通过类似 In-context learning 的方式作用到 LLM 上

      注:对于 Decoder-Only Transformer 模型来说,prompt 信息可以直接地作用于 CD 模型的每一层的参数,可以视为一种隐式微调。详见 Why Can GPT Learn In-Context? Language Models Implicitly Perform Gradient Descent as Meta-Optimizers

    • 相比经典 RL,这种通过 Reflexion 交互多次迭代地学习完成复杂任务的过程更加类似人类。因为在每一次 rollout 结束后都存在一个反思之前的失败原因并构造下次尝试改进计划的阶段,目前只有 LLM 有能力进行这种反思
  • 下图显示了 Reflexion 框架在决策、编程和推理任务上的示例
    在这里插入图片描述
    1. 从任务描述开始
    2. 使用类似 ReAct 的方式和环境交互,其中交替执行推理分析和动作生成,得到完整轨迹
    3. 对轨迹进行评估,这一步有多种设计,包括
      • 简单的 binary 环境反馈,描述任务成功或失败
      • 针对常见失败案例的预定义启发式方法,有点类似 RL 中的奖励函数设计
      • 自我评估方法(如使用 LLM 判断决策问题的成败结果,或在编程任务中编写单元测试
    4. 在 reflecxion 过程中,用自然语言将评估信号表述为经验摘要,并存储在 episodic mem 中
    5. 在新一轮 rollout 中,agent 同时利用交互轨迹上下文和 episodic mem 的经验进行决策
  • 虽然 Reflexion 依赖于 LLM 的自我评估和解释能力(启发式方法),缺乏成功控制的理论保证,但相比传统 RL 方法,Reflexion 有以下优点
    1. 轻量,不需要对 LLM 进行微调
    2. 允许基于自然语言的,更精确和细致的反馈形式,而非简单的标量或向量奖励
    3. 允许对先前经验的情节记忆进行更明确和可解释的表达
    4. 通过调整 prompt,为未来 rollout 中的行动提供了更直接明确的提示

1.2 Reflexion:通过口语式反思进行强化学习

  • 本节详细说明 Reflexion 框架的内部结构,如下图所示
    在这里插入图片描述
  • 注意到整体是一个 Multi-agent 系统,有三个 LM 分工合作完成任务,主要部件包括
    1. Actor M a M_a Ma:生成动作和文本(推理、分析、反思)的模型。类似传统强化学习设置,它在 t t t 时刻接收到环境观测 o t o_t ot,然后通过特定的提示生成推理分析文本,或基于当前策略 π \pi π 采样/生成一个动作 a t a_t at。生成动作时,使用 episodic memory 提供额外的上下文
      • 作者称 Memory 的引入受到了《Large Language Models can Implement Policy Iteration》 的启发,其建议使用上下文学习的策略迭代方法
      • 在 RL 领域,曾经 episodic 也小小地流行过一段时间,基本思想是记住并重现过去表现好的动作,参考 论文理解【RL - Episodic Control】 ——【MFEC】Model Free Episodic Control
    2. Evaluator M e M_e Me:对 M a M_a Ma 的输出进行评分的模型。它接受生成的轨迹作为输入,并计算一个反映其在给定任务环境中表现的奖励分数。定义适用于语义空间的有效的价值和奖励函数是困难的
      • 对于推理任务(reasoning),作者使用了基于精确匹配(exact match, EM)评分的奖励函数,确保生成的输出与预期解决方案紧密对齐
      • 对于决策任务,作者采用针对特定评估标手工设计的启发式函数
      • 此外,作者还尝试使用 LLM 本身的不同实例对象为决策和编程任务生成奖励分数
    3. Self-Reflexion M s r M_{sr} Msr:生成口语式强化提示,以帮助 Actor 进行策略提升的 Self-Reflection 模型。它基于一个稀疏的奖励信号(比如 binary 成败信号)、当前的轨迹和 mem 信息生成自然语言形式的,细致且具体的反馈。这种比标量奖励(scalar rewards)更具信息量的反馈随后存储在 mem 中

      例如,决策任务中某次 rollout 以失败结束, M s r M_{sr} Msr 可以根据相关信息推断出特定动作 a i a_i ai 导致了后续的错误动作 a i + 1 , a i + 2 a_{i+1}, a_{i+2} ai+1,ai+2,随后它以自然语言表达应该采取不同的动作 a i ′ a_i' ai,这将导致 a i + 1 ′ , a i + 2 ′ a'_{i+1}, a'_{i+2} ai+1,ai+2,并将这一经验存储在其记忆中。下次 rollout 时,agent 可以利用该经验在 t t t 时刻选择 a i ′ a_i' ai 来避免失败,从而实现试错学习

    4. Memory:情景记忆(episodic memory)赋予 agent 长期记忆。这允许 Actor 在推理时同时基于短期记忆(历史轨迹)和长期记忆来合成 LM 上下文并指导决策,类似于人类记忆最近的细节的同时也回顾起长期记忆中提炼出的重要经验。相对于其他 LLM agent 相关工作,通过结合长短期记忆,合成同时受到多次试验中学到的经验教训影响的上下文,是 Reflexion agent 的一个关键优势
    5. Reflexion Process:如图2中的迭代优化过程所示。在第一次 rollout 时,Actor 提供完整的交互轨迹 τ 0 \tau_0 τ0,Evaluator 生成打分 r 0 = M e ( τ 0 ) r_0=M_e(\tau_0) r0=Me(τ0)这里 r t r_t rt 只是一个稀疏的标量奖励。接下来 Self-Reflection 模型 M s r M_{sr} Msr 分析 { τ 0 , r 0 } \{\tau_0, r_0\} {τ0,r0},生成自然语言摘要 s r 0 sr_0 sr0,并将其存入 memory。Actor、Evaluator 和 Self-Reflection 模型通过一系列 rollout 试错学习,直到 Evaluator 认为 τ t \tau_t τt 是成功的为止

      作者对 memory 设置了最大存储经验数(通常设置为1-3)以符合 LLM 的上下文长度限制

  • Reflexion 和 Beam Search 机制有些类似,但是后者缺少 memory 组件,对比如下
    在这里插入图片描述

2. 实验

  • 在文字游戏任务 ALFWorld 上,Reflexion 机制使性能提升了 22%
    在这里插入图片描述
  • 推理问答任务 HotPotQA 上,作者实现了一个 Reflexion + CoT 的 agent,它可以使用维基百科 API 检索上下文,并使用逐步显式思考推断答案。加入 Reflexion 使性能提升了 20%
    在这里插入图片描述
  • 编程任务上,由于涉及到编译器反馈,对比方法也或多或少地和使用了和 Reflexion 框架类似的组件或机制,比如生成单元测试,分析报错信息等,但是都没有 Reflexion 做得这么全面,且都没有核心的 Reflexion 机制
    在这里插入图片描述
    最终性能也是 Reflexion 显著更好
    在这里插入图片描述

3. 总结

  • 本文提出的 Reflexion 是一种基于自然语言反馈的试错学习框架,它引入了 episodic memory 形式的长期记忆缓存,通过构造包含短期记忆和长期记忆的上下文,在不调整模型参数的情况下,允许 LLM agent 从历史错误经验中学习和强化,实现了显著的性能提升。另外,这种 LLM agent 相比 RL agent 更具可解释性
  • 本文的局限性包括
    1. Memory 设计比较简单,只是一个最大容量的滑动窗口。可以考虑进一步扩展为向量嵌入数据库或传统的SQL数据库
    2. Memory 只能添加和移除,可以考虑引入编辑
    3. 可以考虑将 Memory 和 LoRA 等微调手段结合使用,同时从上下文和参数两方面进行策略提升
    4. 问题设置比较简单,所有问题都只有 binary 成败反馈,可以考虑扩展到具有连续值反馈的任务上

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2097360.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

python-比身高

题目描述 班上有n个同学。现在同学们排成了一队,每个同学都想知道在自己前面有多少个同学比自己高。现在告诉你班上同学们排好队后每个同学的身高,请告诉每个人在他们前面有多少人比他们高。输入: 输入共两行。 第一行一个整数n。 第二行n个整…

实战|任意用户漏洞挖掘分享

吉祥知识星球http://mp.weixin.qq.com/s?__bizMzkwNjY1Mzc0Nw&mid2247485367&idx1&sn837891059c360ad60db7e9ac980a3321&chksmc0e47eebf793f7fdb8fcd7eed8ce29160cf79ba303b59858ba3a6660c6dac536774afb2a6330&scene21#wechat_redirect 《网安面试指南》…

变压器电压调节

电压调节是衡量变压器在不同负载条件下维持恒定次级电压的能力的标准,因为输出次级电压可能不是我们所期望的。 当变压器的初级绕组通电时,它会产生次级电压和电流,其量由变压器匝数比 (TR) 决定。如果单相变压器的降压匝数比为 2:1&#xf…

【论文阅读】一种针对多核神经网络处理器的窃取攻击(2020)

摘要 攻击者可以通过侧信道信息(Side-channel)完成模型窃取攻击[17]. [17] Hua W Z, Zhang Z R, Suh G E. Reverse Engineering Convolutional Neural Networks through Side-channel Information Leaks[C]. 2018 55th ACM/ESDA/IEEE Design Automation Conference (DAC), 2018…

Large Language Models(LLMs) Concepts

1、Introduction to Large Language Models(LLM) 1.1、Definition of LLMs Large: Training data and resources.Language: Human-like text.Models: Learn complex patterns using text data. The LLM is considered the defining moment in the history of AI. Some appl…

HMI触屏网关-VISION如何与Modbus TCP从机通信

上文:HMI触屏网关-VISION如何与Modbus RTU从机通信-CSDN博客 1. 硬件连接 Modbus TCP协议采用网口通信的方式,因此,只需要保证网关的LAN口IP和Modbus TCP从机的IP在同一网段即可。 Modbus TCP从机参数说明: 2. VISION创建Modbu…

怎么将ts格式转mp4?必须掌握的4种视频转换方法

当今,视频格式转换变得愈发重要。当我们面对不太常见的ts格式,想要将其转换为更通用的mp4时,掌握正确的转换方法尤为关键。今天,我们将分享4种实现ts格式转mp4的必备方法。每一种方法都有其独特优势,满足不同需求。 我…

027、架构_资源_GTM

系统级GTM:默认的GTM,当创建分片集群时,如果不创建实例级GTM,则会用系统级GTM 本章节主要介绍GTM 集群的新增、删除、配置、绑定等管理操作。 新增GTM集群 摘要新增GTM集群,与租户相绑定,可查看绑定租户与配置集群参数设置,租户可重绑定其他正常可用的GTM集群。 步骤1.…

windows 编译libx264报错问题之解决

编译过程参考:Win10环境下 编译 和 运行 x264_x.264下载使用教程-CSDN博客 一、gcc not found 在https://www.msys2.org/ 下载Mingw后,安装 pacman -S mingw-w64-x86_64-gcc 安装完成后,执行gcc -v提示找不到gcc 解决办法: …

迎接开学第一天!请查收这份2024开学必备好物清单!

新的学期正悄然来临,开学第一天校园里即将迎来一张张充满朝气的面孔。无论是重返课堂的老生还是满怀期待的新生,开学季总是充满了新的希望与挑战。为了帮助学生们更好地适应即将到来的学习生活,我们精心准备了这份2024开学必备好物清单。从提…

Java提高篇——Java 异常处理

阅读目录 异常的概念异常的体系结构Java 异常的处理机制异常处理的基本语法异常链自定义异常总结 回到顶部 异常的概念 异常是程序中的一些错误,但并不是所有的错误都是异常,并且错误有时候是可以避免的。 比如说,你的代码少了一个分号&…

FreeRTOS指南 -- 基础知识

裸机 / OS 裸机编程:单任务系统的方式,框架是在main( )函数中循环的处理,实时性差,在大循环中再紧急的函数没轮到只能等着,虽然在中断中处理一些紧急任务,但是在大型嵌入式系统中,这样的单任务系…

深入探索MySQL数据库结构设计:实战案例解析,打造高效、可扩展的数据存储方案

作者简介:我是团团儿,是一名专注于云计算领域的专业创作者,感谢大家的关注 座右铭: 云端筑梦,数据为翼,探索无限可能,引领云计算新纪元 个人主页:团儿.-CSDN博客 前言:…

BERT 高频面试题八股文——基础知识篇

基础知识 1. 问:请简述自然语言处理(NLP)的主要研究目标是什么? 答:NLP的主要研究目标是使计算机能够理解、解释和生成人类语言。 2. 问:什么是BERT模型,它为什么重要? 答:BERT是一种预训练…

超级会员卡积分收银系统源码,一站式解决方案,可以收银的小程序 带完整的安装代码包以及搭建部署教程

系统概述 超级会员卡积分收银系统源码,是一款专为零售行业设计的综合性管理软件系统。该系统以高效的收银功能为核心,结合会员管理、积分系统、商品管理、库存监控、报表分析等多个功能模块,旨在帮助商家实现线上线下一体化经营,…

海康二次开发学习笔记7-流程相关操作

流程相关操作 流程的相关操作包括选择路径,导入流程,导出流程,运行流程等. 在开始前,扩展优化一下写法,供其他地方重复调用. /// <summary>/// 消息显示区显示消息/// </summary>/// <param name"msg"></param>public void AddMsg(string …

【windows】windows 如何实现 ps aux | grep xxx -c 统计某个进程数的功能?

windows 如何实现 ps aux | grep xxx -c 统计某个进程数的功能&#xff1f; 在Windows中&#xff0c;要实现类似Linux中ps aux | grep xxx -c的功能&#xff0c;即统计某个特定进程的数量&#xff0c;可以使用PowerShell或命令提示符&#xff08;cmd.exe&#xff09;来实现。 …

osgearth添加地形夸张系数VerticalScale时报E0393:不允许指针指向不完整的类类型的解决方法

如下图1所示: 图1 error C2027: 使用了未定义类型“osgEarth::TerrainEngineNode” E0393:不允许指针指向不完整的类类型“osgEarth::TerrainEngineNode”

SSM一篇就懂

01、初始Spring 什么是Spring&#xff0c;它有什么特点&#xff1f; Spring是一个容器框架&#xff0c;主要负责维护bean与bean之间的关系和生命周期。它具有以下特点&#xff1a; 控制反转&#xff08;IoC&#xff09;&#xff1a;通过依赖注入&#xff08;DI&#xff09;&…

自动化获取诊断信息(H3C网络设备)

介绍 在设备遇到个人无法处理的问题时&#xff0c;需要下载诊断信息发送给400处理哦&#xff0c;而通过传统的方式获取诊断信息需要通过多个步骤来获取&#xff0c;步骤繁琐&#xff0c;在设备数量过多的情况下&#xff0c;严重影响工作效率&#xff0c;而通过python自动化的方…