当前位置: 首页 > news >正文

网络设计深圳网站优化提供商

网络设计,深圳网站优化提供商,馆陶网站建设,南京做微网站英文名称: Reflexion: Language Agents with Verbal Reinforcement Learning 中文名称: 反思#xff1a;具有言语强化学习的语言智能体 文章: http://arxiv.org/abs/2303.11366 代码: https://github.com/noahshinn/reflexion 作者: Noah Shinn (Northeastern University) 日期…英文名称: Reflexion: Language Agents with Verbal Reinforcement Learning 中文名称: 反思具有言语强化学习的语言智能体 文章: http://arxiv.org/abs/2303.11366 代码: https://github.com/noahshinn/reflexion 作者: Noah Shinn (Northeastern University) 日期: 2023-10-10 读后感 论文提出了一种强化学习方法。传统的调优主要是通过训练调整网络参数而文中提出的方法则是“分析”错误形成反思的“文字”并保存在之后的决策中将其作为上下文以帮助决策。 它利用大模型及其周边方法构造了角色的行为、对结果的评价、当不能达成目标时利用大模型来反思执行过程中具体哪一步出了问题并将其作为反思存储。这样就构造了基于当前环境的短期存储和基于反思的长期存储结合二者使模型在未来做出更好的决策。 可将其视为把之前在棋类游戏中的强化学习扩展到了角色扮演游戏之中。之前的虚拟世界是棋盘而现在的智能体置身于一个游戏世界之前的行为是多步棋的组合现在是多个行为的组合之前是根据最终输赢为每一步计算奖励值现在是利用大模型反思出每一步的对错…… 这个方法很巧妙当然也是因为现在有了各种大模型链式思维的方法才能支持该方法的实现。 摘要 对于语言代理来说通过传统的强化学习方法进行试错学习需要大量的训练样本和昂贵的模型微调。论文提出了 Reflexion 框架 通过语言反馈而不是更新权重来强化语言代理。Reflexion 足够灵活可以整合各种类型和来源的反馈信号实验证明它在各种任务中取得显著改进。 1. 引言 Reflexion 将环境中的反馈转化为文本摘要然后将其作为附加上下文添加到下一轮的 LLM 代理中从以前的错误中学习以在未来任务中表现更好。这类似于人类如何通过反思以往的失败来形成改进以便以少量尝试的方式完成复杂任务。 与传统方法相比Reflexion 具有以下优点 更为轻量不需要对 LLM 进行微调相比于难以进行准确信用分配的标量或向量奖励它允许更细致的反馈允许更明确和可解释的情节性记忆形式为未来的决策提供了更明确的行动提示 其缺点是 依赖于 LLM 的自我评估能力或启发式方法无法保证成功 文章贡献如下 • 提出了 Reflexion一种新的基于语言的强化学习范式结合了智能体的记忆与 LLM 参数的选择以优化策略。 • 探索了 LLM 中自我反思的性质证明自我反思对于少量数据的复杂任务非常有用。 • 引入了包含 40 个具有挑战性的 Leetcode 问题“困难级别”的代码生成涵盖了 19 种编程语言。 • 展示了 Reflexion 在多个任务上相对于强基线方法的改进。 2. 相关工作 略… 3. 方法 Actor角色使用 LLM 实现它基于可观察的状态利用提示生成文本和动作。类似强化学习中的基于策略的方法在时间步 t从策略 πθ 中采样一个动作 at它探索了各种 Actor 模型包括 COT 和 ReAct从而丰富了探索空间。Evaluator评估器用于评估 Actor 输出的质量。将生成的轨迹作为输入计算在给定任务上下文中的奖励分数。对于推理任务探索基于精确匹配EM评分的奖励函数对于决策任务采用根据特定评估标准的预定义启发式函数还使用 LLM 的不同实例作为评估器为决策和编程任务生成奖励。Self-reflection自我反思使用 LLM 实现用于生成基于语言的反思。在给出稀疏奖励信号如二元状态成功/失败当前轨迹及其持久记忆内存。自我反思模型会生成细致入微且具体的反馈这种反馈相比标量奖励提供更多信息然后被存储在代理的内存 (mem) 中。如在多步决策任务中当智能体收到失败信号时它可以推断出特定动作 ai 导致了后续错误动作 ai1 和 ai2。然后智能体可以用语言声明它应该采取不同的动作 a’ i这将导致 a’ i1 和 a’ i2并将该经验存储在其记忆中。在随后的试验中智能体可以利用其过去的经验通过选择动作 a’ i 来调整其在时间 t 的决策方法。这种尝试、错误、自我反思和持久记忆的迭代过程使智能体能够利用信息反馈信号快速提高其在各种环境中的决策能力。Memory内存组件为 Agent 提供额外的上下文。它提供短期记忆和长期记忆。在推理时Actor 根据短期和长期记忆做出决定在强化学习设置中轨迹历史充当短期记忆而自我反思模型的输出则存储在长期记忆中。这是反思 Agent 相对于其他 LLM 的关键优势。类似于人类记住近期细节的方式同时也回忆从长期记忆中提炼出的重要经验。The Reflexion process反思过程如算法 -1 所示的迭代优化过程。在第一次试验中Actor 通过与环境交互产生轨迹 τ0。然后评估器产生一个分数 r0rt 是标量奖励为了放大 r0 自我反思模型分析 {τ0, r0} 集合以生成存储在内存 mem 中的摘要 sr0。srt 是对试验 t 的语言反馈。 Actor、Evaluator 和 Self-Reflection 模型通过循环试验协同工作直到 Evaluator 认为 τt 是正确的。每次试验后 t、srt 都会附加存入 mem。在实践中通过存储经验的最大数量 Ω通常设置为 1-3来限制 mem从而不超过 LLM 的上下文限制。 4. 实验 4.1 顺序决策制定ALFWorld 在 AlfWorld 常见家庭环境中的多步任务中反思使性能提高了 22%。 4.2 推理HotpotQA HotPotQA 是一个基于维基百科的数据集包含 113k 个问题和答案对代理解析内容并在多个支持文档上进行推理。 论文实现了一个反思 思维链的 Agent它可以使用维基百科 API 检索相关上下文并使用逐步显式思考推断答案。加入反思在该任务中提升了 20% 4.3 编程 在 MBPP、HumanEval 和 LeetcodeHardGym 上评估了基准和 Reflexion 方法在 Python 和 Rust 代码编写方面的表现。除了 MBPP Python 1Reflexion 在所有测试中表现优于所有基准准确性
http://www.zqtcl.cn/news/699324/

相关文章:

  • 做网站关键词集团网站群建设方案
  • 网站开发有哪些课程网站开发好要租服务器吗
  • 鲜花店网站建设的规模设想网站之间的差异
  • 网站怎么在百度做推广郑州建网站
  • 机关门户网站建设顺义做网站
  • 网站开发公司东莞环球军事头条
  • 企业网站管理系统添加教程如何用python开发网页
  • 公司网站建设需要资质wordpress admin
  • 万维网网站301重定向怎么做国家城乡建设规划部网站
  • 现在的网站内容区域做多宽俄文网站开发翻译
  • 上海闵行建设局官方网站做电影网站的流程
  • 怎样做水族馆网站wordpress第三方订阅地址
  • 东莞做网站注意事项如何查网站的百度快照
  • 做资源网站需要什么郑州哪有做网站的公司
  • 不属于网站架构开发一个游戏软件多少钱
  • 电子商务网站建设 市场分析广州有哪些做网站专业的公司
  • 广州网站建设南宁厦门城健建设有限公司网站
  • 课程网站开发的研究现状网页设计制作音乐网站
  • 建设工程法律网站网站美工做专题尺寸多少?
  • 甘肃制作网站godaddy wordpress空间
  • 做淘宝客网站要多少钱心理网站模板
  • 建设手机网站经验分享网站外链建设实例
  • 乔拓云网站注册外贸个人网站
  • 个人怎么做动漫短视频网站建设银行银监会官方网站
  • 长沙网站seo技术厂家山东济宁网站建设设计
  • 外贸网站制作有哪些做体育的网站
  • 广州哪里有做网站推广最牛的网站建
  • 建设网站用户名是什么原因世界500强企业排名2020
  • 创建网站要找谁手机网站后台源码
  • canvas网站源码网站静态和动态区别