高效智能体不是更小的模型,而是在记忆、工具使用和规划模块上优化,以最大化任务成功率同时最小化资源消耗(包括token使用、推理延迟和计算成本)的智能体系统。
高效智能体研究的演进轨迹(2023-2025)。蓝色:记忆;绿色:工具学习;紫色:规划;橙色:评测基准。
智能体的效率危机
这个input-solution循环导致token的复合累积——第n步的输出成为第n+1步的输入成本,产生高昂的推理成本和缓慢的响应时间。
提升效率的三大战略方向:分享两篇Claude Skills最新论文,有3个核心结论
- 高效记忆
- 高效工具学习
- 高效规划
三、高效记忆(Efficient Memory)
图2:记忆生命周期——构建、管理、访问的完整流程
记忆模块架构图
表1:高效记忆机制概览
3.1 工作记忆(Working Memory)
文本型工作记忆直接在prompt中维护紧凑表示:
- COMEDY:使用LLM提取会话特定记忆,压缩为关键事件、用户画像和关系变化的紧凑表示
- MemAgent/MEM1:顺序处理长输入,每一步重写更新紧凑记忆状态
- AgentFold:主动将交互历史折叠为多尺度摘要+最新完整轮次
隐式型工作记忆以连续信号形式存储:
- Activation Beacon:将上下文分块,通过渐进压缩将层-wise KV激活蒸馏到信标中
- MemoryLLM:维护固定大小的记忆token池,通过自更新机制复用隐式知识
- Titans:在测试时更新神经记忆模块,仅在高预测误差时写入
3.2 外部记忆(External Memory)
项目型记忆:
- MemoryBank:基于艾宾浩斯遗忘曲线,随时间衰减记忆同时强化重要记忆
- Memory-R1/Mem0:从对话中提取并总结为候选记忆,支持CRUD操作
- A-MEM:将交互转换为原子笔记,带上下文描述、关键词和标签
图结构记忆:
- GraphReader:将长文本分块,压缩为关键元素和原子事实,构建捕获长程依赖的图
- AriGraph:统一语义-情景记忆图,语义三元组更新语义图,情景节点链接两者
- Zep:构建时序感知知识图谱,提取/对齐实体关系,存储带有效期的事实边
层次化记忆:
- MemGPT:OS风格虚拟内存分页,将提示分区为系统指令、可写工作上下文和FIFO消息缓冲区
- MemoryOS:三层存储(短期对话页、中期主题段、长期个人画像)
- LightMem:感知-STM-LTM流水线,预压缩输入,在线软更新+离线睡眠时整合
3.4 多智能体记忆
| 类型 | 描述 | 代表方法 |
|---|---|---|
| 共享记忆 | 集中可复用信息,减少冗余 | MS、G-Memory、RCR-Router、MIRIX |
| 本地记忆 | 每个智能体独立存储,轻量低噪 | Intrinsic Memory Agents、AgentNet、DAMCS |
| 混合记忆 | 结合共享和本地,需协调路由 | SRMT、Collaborative Memory、LEGOMem |
四、高效工具学习(Efficient Tool Learning)
表2:高效工具学习方法总结(完整表格见论文第19页)
工具学习分类表格
4.1 工具选择(Tool Selection)
三大范式:
| 范式 | 原理 | 代表方法 | 适用场景 |
|---|---|---|---|
| 外部检索器 | 独立模型嵌入查询和工具描述,计算相似度 | ProTIP、AnyTool、Toolshed | 工具池动态变化 |
| 多标签分类 | 固定工具集视为分类任务 | TinyAgent、Tool2Vec | 工具集相对固定 |
| 词汇检索 | 工具嵌入为特殊token,作为下一个token预测 | ToolkenGPT、Toolken+、ToolGen | 超大规模工具库 |
效率洞察:词汇方法(Toolken)效率最高但泛化性受限,外部检索器即插即用但计算开销大,多标签分类需微调但适合固定场景。
4.2 工具调用(Tool Calling)
| 技术方向 | 核心思想 | 代表方法 |
|---|---|---|
| 原位参数填充 | 直接在响应生成中填充工具参数 | Toolformer、CoA |
| 并行工具调用 | 识别可并行执行的工具调用 | LLMCompiler、LLM-Tool Compiler、CATP-LLM |
| 成本感知调用 | 将成本作为奖励/约束优化 | BTP、OTC-PO、ToolOrchestra |
| 测试时扩展 | A*搜索等策略剪枝错误分支 | ToolChain* |
| 后训练优化 | RL训练最小化冗余调用 | ToolRL、ReTool、PORTool |
关键发现:并行调用可将顺序延迟降至接近单步,但需准确识别任务依赖;成本感知RL方法在保持准确率的同时显著减少调用次数。
4.3 工具集成推理(Tool-Integrated Reasoning)
核心挑战:在复杂问题解决中平衡准确性、计算效率和数据效率。
| 策略 | 方法 | 机制 |
|---|---|---|
| 选择性调用 | TableMind | 迭代计划-行动-反思循环,两阶段训练(SFT+RL) |
| SMART | 构建数据集标注每次调用的必要性,微调模型决策 | |
| 成本感知策略优化 | RAPO | 排名感知优势加权,引导模型走向一致答案 |
| ARTIST | 结果导向RL,无步骤级监督学习最优工具使用策略 | |
| AutoTIR | 特定奖励惩罚不必要工具使用 | |
| SWiRL | 并行轨迹生成时过滤冗余动作 |
前沿趋势:从"最大化工具使用求准确"转向"RL训练最小化冗余交互"的帕累托优化。
五、高效规划(Efficient Planning)
高效规划总览
5.1 单智能体规划效率
推理时策略:
基于学习的进化:
| 类型 | 方法 | 机制 |
|---|---|---|
| 策略优化 | QLASS | Q值critic指导搜索 |
| ETO | DPO试错偏好学习 | |
| RLTR/Planner-R1 | 过程级奖励训练 | |
| Planning w/o Search | 离线目标条件critic | |
| 记忆与技能获取 | VOYAGER | 构建可复用技能库 |
| GAP | 图表示识别可并行动作 |
5.2 多智能体协作效率
核心挑战:MAS增强推理但常产生O(N²)通信成本。
表3:高效规划方法总结(完整表格见论文第25页)
学AI大模型的正确顺序,千万不要搞错了
🤔2026年AI风口已来!各行各业的AI渗透肉眼可见,超多公司要么转型做AI相关产品,要么高薪挖AI技术人才,机遇直接摆在眼前!
有往AI方向发展,或者本身有后端编程基础的朋友,直接冲AI大模型应用开发转岗超合适!
就算暂时不打算转岗,了解大模型、RAG、Prompt、Agent这些热门概念,能上手做简单项目,也绝对是求职加分王🔋
📝给大家整理了超全最新的AI大模型应用开发学习清单和资料,手把手帮你快速入门!👇👇
学习路线:
✅大模型基础认知—大模型核心原理、发展历程、主流模型(GPT、文心一言等)特点解析
✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑
✅开发基础能力—Python进阶、API接口调用、大模型开发框架(LangChain等)实操
✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用
✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代
✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经
以上6大模块,看似清晰好上手,实则每个部分都有扎实的核心内容需要吃透!
我把大模型的学习全流程已经整理📚好了!抓住AI时代风口,轻松解锁职业新可能,希望大家都能把握机遇,实现薪资/职业跃迁~